[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012155009A - Confocal microscope system, image processing method, and image processing program - Google Patents

Confocal microscope system, image processing method, and image processing program Download PDF

Info

Publication number
JP2012155009A
JP2012155009A JP2011012031A JP2011012031A JP2012155009A JP 2012155009 A JP2012155009 A JP 2012155009A JP 2011012031 A JP2011012031 A JP 2011012031A JP 2011012031 A JP2011012031 A JP 2011012031A JP 2012155009 A JP2012155009 A JP 2012155009A
Authority
JP
Japan
Prior art keywords
cross
light
observation object
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011012031A
Other languages
Japanese (ja)
Other versions
JP5700797B2 (en
Inventor
Yoichi Okamoto
陽一 岡本
Jun Tabuchi
潤 田淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2011012031A priority Critical patent/JP5700797B2/en
Publication of JP2012155009A publication Critical patent/JP2012155009A/en
Application granted granted Critical
Publication of JP5700797B2 publication Critical patent/JP5700797B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a confocal microscope system, an image processing method, and an image processing program, capable of detecting the profile curve of the surface of an observation object accurately and speedily.SOLUTION: A user specifies an acquisition range of a profile curve data about an observation subject S. A CPU 210 sets a plurality of belt-like areas arranged continuously along a direction X based on the specification and also scans with a laser beam on a plurality of measurement lines parallel to the direction X in each belt-like area, thereby acquiring pixel data from a control part 300 based on the measurement lines. The CPU 210 generates a plurality of profile curve data about the belt-like areas based on the acquired pixel data of the plurality of measurement lines, and stores the data into a task memory 230. The CPU 210 connects the profile curve data, generated for the plurality of measurement lines in the belt-like areas, for each measurement line continuing in the direction X, and thereby obtains the connected profile curve data.

Description

本発明は、共焦点顕微鏡システム、画像処理方法および画像処理プログラムに関する。   The present invention relates to a confocal microscope system, an image processing method, and an image processing program.

共焦点顕微鏡では、レーザ光源から出射されたレーザ光が対物レンズにより測定対象物に集光される。測定対象物からの反射光が受光レンズにより集光され、ピンホールを通して受光素子に入射する。レーザ光は測定対象物の表面で二次元的に走査される。また、測定対象物と対物レンズとの間の相対的な距離を変化させることにより受光素子の受光量の分布が変化する。測定対象物の表面に焦点が合ったときに受光量のピークが現れる。受光量分布のピーク強度に基づいて非常に高い焦点深度を有する超深度画像を得ることができる。また、受光量分布のピーク位置に基づいて測定対象物の表面の高さ分布を示す高さ画像を得ることができる。このような共焦点顕微鏡を用いることにより、測定対象物の表面の高さプロファイルを測定することができる(例えば特許文献1参照)。   In the confocal microscope, laser light emitted from a laser light source is condensed on a measurement object by an objective lens. The reflected light from the measurement object is collected by the light receiving lens and enters the light receiving element through the pinhole. The laser beam is scanned two-dimensionally on the surface of the measurement object. Further, the distribution of the amount of light received by the light receiving element is changed by changing the relative distance between the measurement object and the objective lens. A peak in the amount of received light appears when the surface of the measurement object is focused. An ultra-deep image having a very high depth of focus can be obtained based on the peak intensity of the received light amount distribution. Moreover, a height image showing the height distribution of the surface of the measurement object can be obtained based on the peak position of the received light amount distribution. By using such a confocal microscope, the height profile of the surface of the measurement object can be measured (see, for example, Patent Document 1).

特許文献1に記載された光学共焦点顕微鏡装置においては、ステージを所定幅ずつ移動させながら、測定対象物の高さプロファイルを複数取得し、対応する高さプロファイル同士を連結することにより、対物レンズにより規定される視野範囲よりも広い範囲の高さプロファイルを取得することができる。   In the optical confocal microscope apparatus described in Patent Document 1, an object lens is obtained by acquiring a plurality of height profiles of an object to be measured while moving the stage by a predetermined width and connecting corresponding height profiles to each other. It is possible to obtain a height profile in a wider range than the visual field range defined by.

また、触針プローブまたは光プローブ等を用いて、測定対象物の表面を一方向に連続的に走査することにより、広い範囲の高さプロファイルを取得する粗さ計測器等も知られている(例えば特許文献2参照)。   In addition, a roughness measuring instrument that acquires a wide range of height profiles by continuously scanning the surface of a measurement object in one direction using a stylus probe or an optical probe is also known ( For example, see Patent Document 2).

特開2009−258187号公報JP 2009-258187 A 特開2002−213943号公報Japanese Patent Laid-Open No. 2002-213944

しかしながら、特許文献1の光学共焦点顕微鏡装置によれば、複数の高さ画像を取得して連結するため、使用者の所望の位置の高さプロファイルを取得するのに極めて時間がかかる。また、特許文献2の粗さ計測装置によれば、例えば測定対象物の走査する測定ライン上に塵埃等が付着している場合、塵埃等の影響により表面性状を示すパラメータが大きく変化する。そのため、安定に表面性状を示すパラメータを測定できない。   However, according to the optical confocal microscope apparatus of Patent Document 1, since a plurality of height images are acquired and connected, it takes an extremely long time to acquire a height profile at a desired position of the user. Further, according to the roughness measuring apparatus of Patent Document 2, for example, when dust or the like is attached to a measurement line scanned by the measurement object, the parameter indicating the surface property greatly changes due to the influence of the dust or the like. For this reason, it is impossible to measure a parameter indicating the surface property stably.

本発明の目的は、観察対象物の表面の断面曲線を正確でかつ高速に検出することが可能な共焦点顕微鏡システム、画像処理方法および画像処理プログラムを提供することである。   An object of the present invention is to provide a confocal microscope system, an image processing method, and an image processing program capable of accurately and rapidly detecting a cross-sectional curve of the surface of an observation object.

(1)第1の発明に係る共焦点顕微鏡システムは、観察対象物の表面を観察するための共焦点顕微鏡システムであって、受光素子と、観察対象物の表面に設定された単位領域内で第1の方向に平行な測定ラインに光を照射するとともに測定ラインに照射された光を受光素子に導き、光の照射位置を第1の方向に直交する第2の方向に一定間隔ずつ順次移動させることにより、第2の方向に並ぶ複数の測定ラインに光を照射可能に構成された共焦点光学系と、第1および第2の方向に直交する第3の方向における複数の位置で共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離を変化させる相対距離変化部と、第1の動作モードおよび第2の動作モードの制御を選択的に実行可能に構成され、第1の動作モード時に、単位領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように共焦点光学系を制御し、第2の動作モード時に、第2の方向において単位領域よりも小さい幅を有する帯状領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように共焦点光学系を制御するとともに相対距離変化部を制御し、受光素子の出力信号に基づいて各測定ラインについての複数の画素データを順次取得する制御部と、第2の動作モード時に、制御部により取得された複数の画素データに基づいて帯状領域内の各測定ラインについて観察対象物の表面の断面曲線を表す断面曲線データを生成するデータ生成部と、使用者による観察対象物の断面曲線データの取得範囲の指示を受け付ける取得範囲指示受付部と、取得範囲指示受付部により受け付けられた指示に基づいて観察対象物の断面曲線データの取得範囲として第1の方向に沿って連続的に並ぶ複数の帯状領域内に複数の測定ラインを設定する取得範囲設定部と、取得範囲設定部により設定された複数の測定ラインについてデータ生成部により生成された断面曲線データを第1の方向に沿って連続する測定ラインごとに連結することにより、連結された複数の断面曲線データを得るデータ処理部とを備えるものである。   (1) A confocal microscope system according to a first aspect of the present invention is a confocal microscope system for observing the surface of an observation object, in a light receiving element and a unit region set on the surface of the observation object. Irradiates light to the measurement line parallel to the first direction, guides the light irradiated to the measurement line to the light receiving element, and sequentially moves the light irradiation position in a second direction orthogonal to the first direction at regular intervals. The confocal optical system configured to irradiate light to a plurality of measurement lines arranged in the second direction, and confocal at a plurality of positions in a third direction orthogonal to the first and second directions. A relative distance changing unit that changes the relative distance between the confocal optical system and the observation target so that light is emitted by the optical system, and control of the first operation mode and the second operation mode are selectively performed. The first operation is configured to be executable In the second operation mode, the confocal optical system is controlled so that light is emitted to a plurality of measurement lines arranged from one end to the other end in the second direction of the unit region. The confocal optical system is controlled so that light is irradiated to a plurality of measurement lines arranged from one end to the other end in the second direction of the band-like region having a width smaller than the unit region in the direction, and the relative distance changing unit A control unit that sequentially acquires a plurality of pixel data for each measurement line based on an output signal of the light receiving element, and a strip shape based on the plurality of pixel data acquired by the control unit in the second operation mode A data generation unit that generates cross-sectional curve data representing the cross-sectional curve of the surface of the observation object for each measurement line in the region, and an instruction for the acquisition range of the cross-section curve data of the observation object by the user Based on the acquisition range instruction receiving unit and the instruction received by the acquisition range instruction receiving unit, a plurality of band-like regions that are continuously arranged along the first direction as the acquisition range of the cross-sectional curve data of the observation object An acquisition range setting unit for setting a measurement line, and cross-sectional curve data generated by the data generation unit for a plurality of measurement lines set by the acquisition range setting unit are linked for each measurement line continuous along the first direction. Thus, a data processing unit for obtaining a plurality of connected cross-sectional curve data is provided.

この共焦点顕微鏡システムにおいては、観察対象物の表面に設定された単位領域内で第1の方向に平行な測定ラインに光が照射され、測定ラインに照射された光が受光素子に導かれる。光の照射位置が第2の方向に一定間隔ずつ順次移動されることにより、第2の方向に並ぶ複数の測定ラインに光が照射される。また、第3の方向における複数の位置で共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離が変化される。   In this confocal microscope system, light is irradiated to a measurement line parallel to the first direction within a unit region set on the surface of an observation object, and the light irradiated to the measurement line is guided to a light receiving element. By sequentially moving the light irradiation position in the second direction at regular intervals, the plurality of measurement lines arranged in the second direction are irradiated with light. Further, the relative distance between the confocal optical system and the observation object is changed so that light is emitted from the confocal optical system at a plurality of positions in the third direction.

第1の動作モード時には、共焦点光学系により単位領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射される。   In the first operation mode, the confocal optical system irradiates light onto a plurality of measurement lines arranged from one end to the other end in the second direction of the unit region.

第2の動作モード時には、共焦点光学系により第2の方向において単位領域よりも小さい幅を有する帯状領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射される。受光素子の出力信号に基づいて各測定ラインについての複数の画素データが順次取得される。取得された複数の画素データに基づいて帯状領域内の各測定ラインについての断面曲線データが生成される。   In the second operation mode, the confocal optical system irradiates light to a plurality of measurement lines arranged from one end to the other end in the second direction of the band-like region having a width smaller than the unit region in the second direction. The A plurality of pixel data for each measurement line is sequentially acquired based on the output signal of the light receiving element. Cross-sectional curve data for each measurement line in the band-like region is generated based on the acquired plurality of pixel data.

使用者による観察対象物の断面曲線データの取得範囲の指示が受け付けられると、その指示に基づいて観察対象物の断面曲線データの取得範囲として第1の方向に沿って連続的に並ぶ複数の帯状領域内に複数の測定ラインが設定される。設定された複数の測定ラインについて生成された断面曲線データが第1の方向に沿って連続する測定ラインごとに連結されることにより、連結された複数の断面曲線データが得られる。   When an instruction for the acquisition range of the cross-sectional curve data of the observation object is received by the user, a plurality of strips continuously arranged along the first direction as the acquisition range of the cross-section curve data of the observation object based on the instruction A plurality of measurement lines are set in the region. The cross-sectional curve data generated for the set plurality of measurement lines is connected for each measurement line continuous along the first direction, whereby a plurality of connected cross-sectional curve data is obtained.

このように、第2の動作モード時には、第2の方向において単位領域よりも小さい幅を有する帯状領域内で複数の測定ラインに光が照射される。そのため、複数の測定ラインに対応する複数の断面曲線データの生成を高速で行うことができる。その結果、複数の測定ラインに対応する複数の断面曲線データに基づいて観察対象物の表面の断面曲線を正確でかつ高速に検出することができる。   As described above, in the second operation mode, light is irradiated to a plurality of measurement lines in a band-shaped region having a width smaller than the unit region in the second direction. Therefore, a plurality of cross-sectional curve data corresponding to a plurality of measurement lines can be generated at high speed. As a result, the cross-sectional curve of the surface of the observation object can be detected accurately and at high speed based on the plurality of cross-sectional curve data corresponding to the plurality of measurement lines.

(2)共焦点顕微鏡システムは、観察対象物の表面の画像を取得する画像取得部と、画像取得部により取得された画像を表示する第1の表示部とをさらに備え、取得範囲指示受付部は、第1の表示部に表示された画像上で使用者による観測対象物の断面曲線データの取得範囲の指示を受け付けてもよい。   (2) The confocal microscope system further includes an image acquisition unit that acquires an image of the surface of the observation target, and a first display unit that displays the image acquired by the image acquisition unit, and an acquisition range instruction reception unit May receive an instruction of the acquisition range of the cross-sectional curve data of the observation object by the user on the image displayed on the first display unit.

この場合、観察対象物の表面の画像が取得され、取得された画像が第1の表示部に表示される。表示された画像上で使用者による断面曲線データの取得範囲の指示が受け付けられる。これにより、使用者は、断面曲線データの取得範囲を容易に指示することができる。   In this case, an image of the surface of the observation target is acquired, and the acquired image is displayed on the first display unit. An instruction for the acquisition range of the cross-sectional curve data by the user is received on the displayed image. Thereby, the user can easily specify the acquisition range of the cross-sectional curve data.

(3)データ処理部は、連結された断面曲線データを得る前または後に各断面曲線データから不要部分を除去し、連結された各断面曲線データに基づいて観察対象物の表面性状を表す表面性状パラメータを第1の方向に沿って連続する測定ラインごとに算出し、共焦点顕微鏡システムは、データ処理部により連結された各断面曲線データに基づいて第1の方向に沿って連続する測定ライン上での断面曲線を表示する第2の表示部をさらに備えてもよい。   (3) The data processing unit removes unnecessary portions from the respective cross-section curve data before or after obtaining the connected cross-section curve data, and expresses the surface properties of the observation object based on each connected cross-section curve data. The parameter is calculated for each measurement line that is continuous along the first direction, and the confocal microscope system performs measurement on the measurement line that is continuous along the first direction based on the cross-sectional curve data connected by the data processing unit. You may further provide the 2nd display part which displays the cross-sectional curve in.

この場合、連結された断面曲線データから不要部分が除去される。それにより、複数の測定ラインの一部の上に塵埃、傷または穴が存在する場合でも、不要部分が除去された断面曲線データに基づいて観察対象物の表面の断面曲線をより正確に検出することができる。   In this case, unnecessary portions are removed from the connected cross-sectional curve data. As a result, even when dust, scratches or holes are present on a part of a plurality of measurement lines, the cross-section curve of the surface of the observation object is more accurately detected based on the cross-section curve data from which unnecessary portions are removed. be able to.

また、複数の測定ラインに対応する複数の表面性状パラメータが算出されるので、観察対象物の表面性状を正確に検出することができる。さらに、連結された各断面曲線データに基づく断面曲線および算出された表面性状パラメータが第2の表示部に表示される。これにより、使用者は観察対象物の表面の断面曲線および表面性状パラメータを視覚的に認識することができる。   In addition, since a plurality of surface property parameters corresponding to a plurality of measurement lines are calculated, the surface property of the observation object can be accurately detected. Furthermore, the cross-section curve based on the connected cross-section curve data and the calculated surface property parameter are displayed on the second display unit. Thereby, the user can visually recognize the cross-sectional curve and the surface property parameter of the surface of the observation object.

(4)共焦点顕微鏡システムは、観察対象物を支持するとともに第4および第5の方向に移動可能に設けられた支持部をさらに備え、制御部は、第4および第5の方向がそれぞれ第1および第2の方向に一致する場合に、各帯状領域についての共焦点光学系による光の照射の終了ごとに、支持部を第4の方向に移動させ、第4および第5の方向がそれぞれ第1および第2の方向と異なる場合に、各帯状領域についての共焦点光学系による光の照射の終了ごとに、当該帯状領域内の複数の測定ラインの終点と次の帯状領域内の複数の測定ラインの始点とが連続するように支持部を第4および第5の方向に移動させてもよい。   (4) The confocal microscope system further includes a support unit that supports the observation object and is movable in the fourth and fifth directions, and the control unit includes the fourth and fifth directions, respectively. When they coincide with the first and second directions, the support portion is moved in the fourth direction at each end of light irradiation by the confocal optical system for each band-shaped region, and the fourth and fifth directions are respectively When different from the first and second directions, at the end of light irradiation by the confocal optical system for each strip region, the end points of the plurality of measurement lines in the strip region and the plurality of strips in the next strip region The support may be moved in the fourth and fifth directions so that the starting point of the measurement line is continuous.

この場合、観察対象物を支持する支持部の移動方向が第1および第2の方向と一致している場合だけでなく、支持部の移動方向が第1および第2の方向に対して傾斜している場合にも、一の帯状領域の複数の測定ラインについての断面曲線データと隣接する帯状領域の複数の測定ラインについての断面曲線データとが高い精度で連結される。観察対象物の表面の断面曲線をより正確に検出することができる。   In this case, not only when the moving direction of the support part that supports the observation object coincides with the first and second directions, the moving direction of the support part is inclined with respect to the first and second directions. Even in this case, the cross-sectional curve data for a plurality of measurement lines in one belt-like region and the cross-sectional curve data for a plurality of measurement lines in the adjacent belt-like region are connected with high accuracy. The cross-sectional curve of the surface of the observation object can be detected more accurately.

(5)データ処理部は、隣接する帯状領域の複数の測定ラインについての断面曲線データを2次元パターンマッチングにより連結してもよい。この場合、隣接する帯状領域の複数の測定ラインについての断面曲線データをさらに正確に連結することができる。   (5) The data processing unit may connect cross-sectional curve data for a plurality of measurement lines in adjacent strip regions by two-dimensional pattern matching. In this case, the cross-sectional curve data for a plurality of measurement lines in adjacent strip regions can be more accurately connected.

(6)第2の発明に係る画像処理方法は、観察対象物の表面を観察するための画像処理方法であって、共焦点光学系により観察対象物の表面に設定された単位領域内で第1の方向に平行な測定ラインに光を照射するとともに測定ラインに照射された光を受光素子に導き、光の照射位置を第1の方向に直交する第2の方向に一定間隔ずつ順次移動させることにより、第2の方向に並ぶ複数の測定ラインに光を照射するステップと、第1および第2の方向に直交する第3の方向における複数の位置で共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離を変化させるステップと、第1の動作モード時に、単位領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように共焦点光学系を制御するステップと、第2の動作モード時に、第2の方向において単位領域よりも小さい幅を有する帯状領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように共焦点光学系を制御するステップと、受光素子の出力信号に基づいて各測定ラインについての複数の画素データを順次取得するステップと、第2の動作モード時に、取得された複数の画素データに基づいて帯状領域内の各測定ラインについて観察対象物の表面の断面曲線を表す断面曲線データを生成するステップと、使用者による観察対象物の断面曲線データの取得範囲の指示を受け付けるステップと、受け付けられた指示に基づいて観察対象物の断面曲線データの取得範囲として第1の方向に沿って連続的に並ぶ複数の帯状領域内に複数の測定ラインを設定するステップと、設定された複数の測定ラインについて生成された断面曲線データを第1の方向に沿って連続する測定ラインごとに連結することにより、連結された複数の断面曲線データを得るステップとを含むものである。   (6) An image processing method according to a second invention is an image processing method for observing the surface of an observation object, and is the first in a unit region set on the surface of the observation object by a confocal optical system. Irradiates the measurement line parallel to the direction 1 with light, guides the light irradiated to the measurement line to the light receiving element, and sequentially moves the light irradiation position in a second direction orthogonal to the first direction by a predetermined interval. Thus, the step of irradiating the plurality of measurement lines arranged in the second direction and the light irradiation by the confocal optical system at the plurality of positions in the third direction orthogonal to the first and second directions are performed. The step of changing the relative distance between the confocal optical system and the observation object as described above, and the plurality of measurement lines arranged from one end to the other end in the second direction of the unit region in the first operation mode. Confocal so that light is irradiated to In the step of controlling the optical system and in the second operation mode, light is emitted to a plurality of measurement lines arranged from one end to the other end in the second direction of the band-like region having a width smaller than the unit region in the second direction. Acquired in the second operation mode, the step of controlling the confocal optical system so as to be irradiated, the step of sequentially acquiring a plurality of pixel data for each measurement line based on the output signal of the light receiving element, and the second operation mode. A step of generating cross-sectional curve data representing the cross-sectional curve of the surface of the observation object for each measurement line in the belt-like region based on a plurality of pixel data, and an instruction of the acquisition range of the cross-section curve data of the observation object by the user A plurality of band-like regions continuously arranged along the first direction as the acquisition range of the cross-sectional curve data of the observation object based on the receiving step and the received instruction A plurality of connected cross-sections by connecting the cross-sectional curve data generated for the set plurality of measurement lines for each measurement line continuous along the first direction. Obtaining curve data.

この画像処理方法においては、観察対象物の表面に設定された単位領域内で第1の方向に平行な測定ラインに光が照射され、測定ラインに照射された光が受光素子に導かれる。光の照射位置が第2の方向に一定間隔ずつ順次移動されることにより、第2の方向に並ぶ複数の測定ラインに光が照射される。また、第3の方向における複数の位置で共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離が変化される。   In this image processing method, light is irradiated to a measurement line parallel to the first direction within a unit region set on the surface of the observation object, and the light irradiated to the measurement line is guided to the light receiving element. By sequentially moving the light irradiation position in the second direction at regular intervals, the plurality of measurement lines arranged in the second direction are irradiated with light. Further, the relative distance between the confocal optical system and the observation object is changed so that light is emitted from the confocal optical system at a plurality of positions in the third direction.

第1の動作モード時には、共焦点光学系により単位領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射される。   In the first operation mode, the confocal optical system irradiates light onto a plurality of measurement lines arranged from one end to the other end in the second direction of the unit region.

第2の動作モード時には、共焦点光学系により第2の方向において単位領域よりも小さい幅を有する帯状領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射される。受光素子の出力信号に基づいて各測定ラインについての複数の画素データが順次取得される。取得された複数の画素データに基づいて帯状領域内の各測定ラインについての断面曲線データが生成される。   In the second operation mode, the confocal optical system irradiates light to a plurality of measurement lines arranged from one end to the other end in the second direction of the band-like region having a width smaller than the unit region in the second direction. The A plurality of pixel data for each measurement line is sequentially acquired based on the output signal of the light receiving element. Cross-sectional curve data for each measurement line in the band-like region is generated based on the acquired plurality of pixel data.

使用者による観察対象物の断面曲線データの取得範囲の指示が受け付けられると、その指示に基づいて観察対象物の断面曲線データの取得範囲として第1の方向に沿って連続的に並ぶ複数の帯状領域内に複数の測定ラインが設定される。設定された複数の測定ラインについて生成された断面曲線データが第1の方向に沿って連続する測定ラインごとに連結されることにより、連結された複数の断面曲線データが得られる。   When an instruction for the acquisition range of the cross-sectional curve data of the observation object is received by the user, a plurality of strips continuously arranged along the first direction as the acquisition range of the cross-section curve data of the observation object based on the instruction A plurality of measurement lines are set in the region. The cross-sectional curve data generated for the set plurality of measurement lines is connected for each measurement line continuous along the first direction, whereby a plurality of connected cross-sectional curve data is obtained.

このように、第2の動作モード時には、第2の方向において単位領域よりも小さい幅を有する帯状領域内で複数の測定ラインに光が照射される。そのため、複数の測定ラインに対応する複数の断面曲線データの生成を高速で行うことができる。その結果、複数の測定ラインに対応する複数の断面曲線データに基づいて観察対象物の表面の断面曲線を正確でかつ高速に検出することができる。   As described above, in the second operation mode, light is irradiated to a plurality of measurement lines in a band-shaped region having a width smaller than the unit region in the second direction. Therefore, a plurality of cross-sectional curve data corresponding to a plurality of measurement lines can be generated at high speed. As a result, the cross-sectional curve of the surface of the observation object can be detected accurately and at high speed based on the plurality of cross-sectional curve data corresponding to the plurality of measurement lines.

(7)第3の発明に係る画像処理プログラムは、観察対象物の表面を観察するための画像処理を処理装置に実行させる画像処理プログラムであって、共焦点光学系により観察対象物の表面に設定された単位領域内で第1の方向に平行な測定ラインに光を照射するとともに測定ラインに照射された光を受光素子に導き、光の照射位置を第1の方向に直交する第2の方向に一定間隔ずつ順次移動させることにより、第2の方向に並ぶ複数の測定ラインに光を照射する処理と、第1および第2の方向に直交する第3の方向における複数の位置で共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離を変化させる処理と、第1の動作モード時に、単位領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように共焦点光学系を制御する処理と、第2の動作モード時に、第2の方向において単位領域よりも小さい幅を有する帯状領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように共焦点光学系を制御する処理と、受光素子の出力信号に基づいて各測定ラインについての複数の画素データを順次取得する処理と、第2の動作モード時に、取得された複数の画素データに基づいて帯状領域内の各測定ラインについて観察対象物の表面の断面曲線を表す断面曲線データを生成する処理と、使用者による観察対象物の断面曲線データの取得範囲の指示を受け付ける処理と、受け付けられた指示に基づいて観察対象物の断面曲線データの取得範囲として第1の方向に沿って連続的に並ぶ複数の帯状領域内に複数の測定ラインを設定する処理と、設定された複数の測定ラインについて生成された断面曲線データを第1の方向に沿って連続する測定ラインごとに連結することにより、連結された複数の断面曲線データを得る処理とを、処理装置に実行させるものである。   (7) An image processing program according to a third invention is an image processing program for causing a processing device to execute image processing for observing the surface of an observation object, and is applied to the surface of the observation object by a confocal optical system. In the set unit area, the measurement line parallel to the first direction is irradiated with light, the light irradiated to the measurement line is guided to the light receiving element, and the irradiation position of the light is orthogonal to the first direction. A process of irradiating light to a plurality of measurement lines arranged in the second direction by sequentially moving in the direction at regular intervals, and confocal at a plurality of positions in a third direction orthogonal to the first and second directions A process of changing the relative distance between the confocal optical system and the observation target so that light is irradiated by the optical system, and one end to the other end in the second direction of the unit region in the first operation mode Multiple measurements lined up across The process of controlling the confocal optical system so that the line is irradiated with light, and the other from one end in the second direction of the band-shaped region having a width smaller than the unit region in the second direction in the second operation mode A process for controlling the confocal optical system so that light is emitted to a plurality of measurement lines arranged across the edge, and a process for sequentially acquiring a plurality of pixel data for each measurement line based on an output signal of the light receiving element; In the second operation mode, processing for generating cross-sectional curve data representing the cross-sectional curve of the surface of the observation object for each measurement line in the band-like region based on the plurality of acquired pixel data, and an observation target by the user Processing for accepting an instruction for the acquisition range of the cross-sectional curve data of the object, and continuously obtaining the acquisition range of the cross-section curve data of the object to be observed along the first direction based on the received instruction The process of setting a plurality of measurement lines in a number of band-shaped regions, and connecting the cross-sectional curve data generated for the set measurement lines for each measurement line continuous along the first direction. And processing for obtaining a plurality of cross-sectional curve data.

この画像処理プログラムにおいては、観察対象物の表面に設定された単位領域内で第1の方向に平行な測定ラインに光が照射され、測定ラインに照射された光が受光素子に導かれる。光の照射位置が第2の方向に一定間隔ずつ順次移動されることにより、第2の方向に並ぶ複数の測定ラインに光が照射される。また、第3の方向における複数の位置で共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離が変化される。   In this image processing program, light is irradiated to a measurement line parallel to the first direction within a unit region set on the surface of the observation object, and the light irradiated to the measurement line is guided to the light receiving element. By sequentially moving the light irradiation position in the second direction at regular intervals, the plurality of measurement lines arranged in the second direction are irradiated with light. Further, the relative distance between the confocal optical system and the observation object is changed so that light is emitted from the confocal optical system at a plurality of positions in the third direction.

第1の動作モード時には、共焦点光学系により単位領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射される。   In the first operation mode, the confocal optical system irradiates light onto a plurality of measurement lines arranged from one end to the other end in the second direction of the unit region.

第2の動作モード時には、共焦点光学系により第2の方向において単位領域よりも小さい幅を有する帯状領域の第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射される。受光素子の出力信号に基づいて各測定ラインについての複数の画素データが順次取得される。取得された複数の画素データに基づいて帯状領域内の各測定ラインについての断面曲線データが生成される。   In the second operation mode, the confocal optical system irradiates light to a plurality of measurement lines arranged from one end to the other end in the second direction of the band-like region having a width smaller than the unit region in the second direction. The A plurality of pixel data for each measurement line is sequentially acquired based on the output signal of the light receiving element. Cross-sectional curve data for each measurement line in the band-like region is generated based on the acquired plurality of pixel data.

使用者による観察対象物の断面曲線データの取得範囲の指示が受け付けられると、その指示に基づいて観察対象物の断面曲線データの取得範囲として第1の方向に沿って連続的に並ぶ複数の帯状領域内に複数の測定ラインが設定される。設定された複数の測定ラインについて生成された断面曲線データが第1の方向に沿って連続する測定ラインごとに連結されることにより、連結された複数の断面曲線データが得られる。   When an instruction for the acquisition range of the cross-sectional curve data of the observation object is received by the user, a plurality of strips continuously arranged along the first direction as the acquisition range of the cross-section curve data of the observation object based on the instruction A plurality of measurement lines are set in the region. The cross-sectional curve data generated for the set plurality of measurement lines is connected for each measurement line continuous along the first direction, whereby a plurality of connected cross-sectional curve data is obtained.

このように、第2の動作モード時には、第2の方向において単位領域よりも小さい幅を有する帯状領域内で複数の測定ラインに光が照射される。そのため、複数の測定ラインに対応する複数の断面曲線データの生成を高速で行うことができる。その結果、複数の測定ラインに対応する複数の断面曲線データに基づいて観察対象物の表面の断面曲線を正確でかつ高速に検出することができる。   As described above, in the second operation mode, light is irradiated to a plurality of measurement lines in a band-shaped region having a width smaller than the unit region in the second direction. Therefore, a plurality of cross-sectional curve data corresponding to a plurality of measurement lines can be generated at high speed. As a result, the cross-sectional curve of the surface of the observation object can be detected accurately and at high speed based on the plurality of cross-sectional curve data corresponding to the plurality of measurement lines.

本発明の目的は、観察対象物の表面の断面曲線を正確でかつ高速に検出することが可能な共焦点顕微鏡システム、画像処理方法および画像処理プログラムを提供することである。   An object of the present invention is to provide a confocal microscope system, an image processing method, and an image processing program capable of accurately and rapidly detecting a cross-sectional curve of the surface of an observation object.

本発明の一実施の形態に係る共焦点顕微鏡システムの構成を示すブロック図である。It is a block diagram which shows the structure of the confocal microscope system which concerns on one embodiment of this invention. X方向、Y方向およびZ方向を定義するための図である。It is a figure for defining an X direction, a Y direction, and a Z direction. 1つの画素において観察対象物のZ方向の位置と受光素子の受光強度との関係を示す図である。It is a figure which shows the relationship between the position of the Z direction of an observation target object, and the light reception intensity | strength of a light receiving element in one pixel. 観察対象物の表面形状を示す図である。It is a figure which shows the surface shape of an observation target object. 画素データの取得範囲の設定時における表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part at the time of the setting of the acquisition range of pixel data. 条件設定領域に表示される測定点設定部および測定長さ設定部を示す図である。It is a figure which shows the measurement point setting part and measurement length setting part which are displayed on a condition setting area | region. 条件設定領域に表示される測定高さ設定部および測定開始指示部を示す図である。It is a figure which shows the measurement height setting part and measurement start instruction | indication part which are displayed on a condition setting area | region. 共焦点顕微鏡システムにおける画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method in a confocal microscope system. 共焦点顕微鏡システムにおける画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method in a confocal microscope system. 複数の帯状領域におけるレーザ光の走査方法を示す図である。It is a figure which shows the scanning method of the laser beam in a some strip | belt-shaped area | region. 複数の帯状領域における断面曲線データの連結方法を示す図である。It is a figure which shows the connection method of the cross-section curve data in a some strip | belt-shaped area | region. レーザ光の走査方向およびステージの実際の移動方向を示す図である。It is a figure which shows the scanning direction of a laser beam, and the actual moving direction of a stage. ステージの傾き補正量算出処理を示すフローチャートである。It is a flowchart which shows the inclination correction amount calculation process of a stage. ステージの傾き補正量算出処理実行時における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part at the time of execution of the inclination correction amount calculation process of a stage. ステージの傾き補正量算出処理実行時における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part at the time of execution of the inclination correction amount calculation process of a stage. 連結されたチャートの超深度線状画像を示す図である。It is a figure which shows the ultra-deep linear image of the connected chart. 解析結果表示時における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part at the time of an analysis result display.

以下、本発明の一実施の形態に係る共焦点顕微鏡システムについて図面を参照しながら説明する。   Hereinafter, a confocal microscope system according to an embodiment of the present invention will be described with reference to the drawings.

(1)共焦点顕微鏡システムの基本構成
図1は、本発明の一実施の形態に係る共焦点顕微鏡システム500の構成を示すブロック図である。図1に示すように、共焦点顕微鏡システム500は、測定部100、PC(パーソナルコンピュータ)200、制御部300および表示部400を備える。測定部100は、レーザ光源10、X−Yスキャン光学系20、受光素子30、照明用白色光源40、カラーCCD(電荷結合素子)カメラ50およびステージ60を含む。ステージ60上には、観察対象物Sが載置される。
(1) Basic Configuration of Confocal Microscope System FIG. 1 is a block diagram showing a configuration of a confocal microscope system 500 according to an embodiment of the present invention. As shown in FIG. 1, the confocal microscope system 500 includes a measurement unit 100, a PC (personal computer) 200, a control unit 300, and a display unit 400. The measurement unit 100 includes a laser light source 10, an XY scan optical system 20, a light receiving element 30, an illumination white light source 40, a color CCD (charge coupled device) camera 50, and a stage 60. An observation object S is placed on the stage 60.

レーザ光源10は、例えば半導体レーザである。レーザ光源10から出射されたレーザ光は、レンズ1により平行光に変換された後、ハーフミラー4を透過してX−Yスキャン光学系20に入射する。なお、レーザ光源10に代えて水銀ランプ等の他の光源が用いられてもよい。この場合、水銀ランプ等の光源とX−Yスキャン光学系20との間に帯域通過フィルタが配置される。水銀ランプ等の光源から出射された光は、帯域通過フィルタを通過することにより単色光となり、X−Yスキャン光学系20に入射する。   The laser light source 10 is a semiconductor laser, for example. The laser light emitted from the laser light source 10 is converted into parallel light by the lens 1, passes through the half mirror 4, and enters the XY scan optical system 20. Instead of the laser light source 10, another light source such as a mercury lamp may be used. In this case, a band pass filter is disposed between the light source such as a mercury lamp and the XY scan optical system 20. Light emitted from a light source such as a mercury lamp passes through a band-pass filter, becomes monochromatic light, and enters the XY scan optical system 20.

X−Yスキャン光学系20は、例えばガルバノミラーである。X−Yスキャン光学系20は、ステージ60上の観察対象物Sの表面上においてレーザ光をX方向およびY方向に走査する機能を有する。X方向、Y方向およびZ方向の定義については後述する。X−Yスキャン光学系20により走査されたレーザ光は、ハーフミラー5により反射された後、ハーフミラー6を透過し、対物レンズ3によりステージ60上の観察対象物Sに集光される。なお、ハーフミラー4〜6に代えて偏光ビームスプリッタが用いられてもよい。   The XY scan optical system 20 is, for example, a galvanometer mirror. The XY scan optical system 20 has a function of scanning a laser beam in the X direction and the Y direction on the surface of the observation object S on the stage 60. The definitions of the X direction, the Y direction, and the Z direction will be described later. The laser beam scanned by the XY scanning optical system 20 is reflected by the half mirror 5, then passes through the half mirror 6, and is focused on the observation object S on the stage 60 by the objective lens 3. Instead of the half mirrors 4 to 6, a polarization beam splitter may be used.

観察対象物Sにより反射されたレーザ光は、対物レンズ3およびハーフミラー6を透過した後、ハーフミラー5により反射され、X−Yスキャン光学系20を透過する。X−Yスキャン光学系20を透過したレーザ光は、ハーフミラー4により反射され、レンズ2により集光され、ピンホール部材7のピンホールおよびND(Neutral Density)フィルタ8を透過して受光素子30に入射する。このように、本実施の形態においては反射型の共焦点顕微鏡システム500が用いられるが、観察対象物Sが細胞等の透明体である場合には、透過型の共焦点顕微鏡システムが用いられてもよい。   The laser light reflected by the observation object S passes through the objective lens 3 and the half mirror 6, then is reflected by the half mirror 5, and passes through the XY scan optical system 20. The laser beam that has passed through the XY scan optical system 20 is reflected by the half mirror 4, collected by the lens 2, and transmitted through the pinhole of the pinhole member 7 and the ND (Neutral Density) filter 8 to receive the light receiving element 30. Is incident on. As described above, the reflection type confocal microscope system 500 is used in the present embodiment, but when the observation object S is a transparent body such as a cell, a transmission type confocal microscope system is used. Also good.

ピンホール部材7のピンホールは、レンズ2の焦点位置に配置される。NDフィルタ8は、受光素子30に入射するレーザ光の強度を減衰させるために用いられる。そのため、レーザ光の強度が十分減衰されている場合には、NDフィルタ8は設けられなくてもよい。   The pinhole of the pinhole member 7 is disposed at the focal position of the lens 2. The ND filter 8 is used to attenuate the intensity of laser light incident on the light receiving element 30. Therefore, when the intensity of the laser beam is sufficiently attenuated, the ND filter 8 may not be provided.

本実施の形態では、受光素子30は光電子増倍管である。受光素子30としてフォトダイオードおよび増幅器を用いてもよい。受光素子30は、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ)を出力する。制御部300は、2つのA/D変換器(アナログ/デジタル変換器)、FIFO(First In First Out)メモリおよびCPU(中央演算処理装置)を含む。受光素子30から出力される受光信号は、制御部300の1つのA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次PC200に転送される。   In the present embodiment, the light receiving element 30 is a photomultiplier tube. A photodiode and an amplifier may be used as the light receiving element 30. The light receiving element 30 outputs an analog electric signal (hereinafter referred to as a light receiving signal) corresponding to the amount of received light. The control unit 300 includes two A / D converters (analog / digital converter), a FIFO (First In First Out) memory, and a CPU (Central Processing Unit). The light reception signal output from the light receiving element 30 is sampled at a constant sampling period by one A / D converter of the control unit 300 and converted into a digital signal. Digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the PC 200 as pixel data.

照明用白色光源40は、例えばハロゲンランプまたは白色LED(発光ダイオード)である。照明用白色光源40により発生された白色光は、ハーフミラー6により反射された後、対物レンズ3によりステージ60上の観察対象物Sに集光される。   The illumination white light source 40 is, for example, a halogen lamp or a white LED (light emitting diode). White light generated by the illuminating white light source 40 is reflected by the half mirror 6 and then condensed by the objective lens 3 onto the observation object S on the stage 60.

観察対象物Sにより反射された白色光は、対物レンズ3、ハーフミラー6およびハーフミラー5を透過してカラーCCDカメラ50に入射する。カラーCCDカメラ50に代えてCMOS(相補性金属酸化膜半導体)イメージセンサ等の撮像素子が用いられてもよい。カラーCCDカメラ50は、受光量に対応する電気信号を出力する。カラーCCDカメラ50の出力信号は、制御部300の他の1つのA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、カメラデータとして順次PC200に転送される。   White light reflected by the observation object S passes through the objective lens 3, the half mirror 6 and the half mirror 5 and enters the color CCD camera 50. An imaging element such as a CMOS (complementary metal oxide semiconductor) image sensor may be used in place of the color CCD camera 50. The color CCD camera 50 outputs an electrical signal corresponding to the amount of received light. The output signal of the color CCD camera 50 is sampled at a constant sampling period by another A / D converter of the control unit 300 and converted into a digital signal. Digital signals output from the A / D converter are sequentially transferred to the PC 200 as camera data.

制御部300は、画素データおよびカメラデータをPC200に与えるとともに、PC200からの指令に基づいて受光素子30の受光感度(ゲイン)およびカラーCCDカメラ50を制御する。また、制御部300は、PC200からの指令に基づいてX−Yスキャン光学系20を制御することによりレーザ光を観察対象物S上でX方向およびY方向に走査させる。   The control unit 300 supplies pixel data and camera data to the PC 200 and controls the light receiving sensitivity (gain) of the light receiving element 30 and the color CCD camera 50 based on a command from the PC 200. Further, the control unit 300 controls the XY scanning optical system 20 based on a command from the PC 200 to scan the laser light on the observation object S in the X direction and the Y direction.

対物レンズ3は、レンズ駆動部63によりZ方向に移動可能に設けられる。制御部300は、PC200からの指令に基づいてレンズ駆動部63を制御することにより対物レンズ3をZ方向に移動させることができる。これにより、対物レンズ3に対する観察対象物Sの相対的なZ方向の位置を変化させることができる。   The objective lens 3 is provided so as to be movable in the Z direction by the lens driving unit 63. The control unit 300 can move the objective lens 3 in the Z direction by controlling the lens driving unit 63 based on a command from the PC 200. Thereby, the position of the observation target S relative to the objective lens 3 in the Z direction can be changed.

PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、作業用メモリ230および記憶装置240を含む。ROM220には、システムプログラムが記憶される。作業用メモリ230は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。記憶装置240は、ハードディスク等からなる。記憶装置240には、画像処理プログラムが記憶されるとともに、制御部300から与えられる画素データおよびカメラデータ等の種々のデータを保存するために用いられる。画像処理プログラムの詳細は後述する。   The PC 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, a work memory 230, and a storage device 240. The ROM 220 stores a system program. The working memory 230 includes a RAM (Random Access Memory), and is used for processing various data. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores an image processing program and is used for storing various data such as pixel data and camera data given from the control unit 300. Details of the image processing program will be described later.

CPU210は、制御部300から与えられる画素データに基づいて画像データを生成する。以下、画素データに基づいて生成される画像データを共焦点画像データと呼ぶ。また、共焦点画像データに基づいて表示される画像を共焦点画像と呼ぶ。   The CPU 210 generates image data based on the pixel data given from the control unit 300. Hereinafter, the image data generated based on the pixel data is referred to as confocal image data. An image displayed based on the confocal image data is referred to as a confocal image.

CPU210は、制御部300から与えられるカメラデータに基づいて画像データを生成する。以下、カメラデータに基づいて生成される画像データをカメラ画像データと呼ぶ。また、カメラ画像データに基づいて表示される画像をカメラ画像と呼ぶ。   The CPU 210 generates image data based on the camera data given from the control unit 300. Hereinafter, the image data generated based on the camera data is referred to as camera image data. An image displayed based on the camera image data is called a camera image.

CPU210は、生成した共焦点画像データおよびカメラ画像データに作業用メモリ230を用いて各種処理を行うとともに、共焦点画像データに基づく共焦点画像およびカメラ画像データに基づくカメラ画像を表示部400に表示させる。また、CPU210は、後述するステージ駆動部62に駆動パルスを与える。   The CPU 210 performs various processes on the generated confocal image data and camera image data using the work memory 230, and displays a confocal image based on the confocal image data and a camera image based on the camera image data on the display unit 400. Let Further, the CPU 210 gives a driving pulse to the stage driving unit 62 described later.

表示部400は、例えば液晶ディスプレイパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。   The display unit 400 is configured by, for example, a liquid crystal display panel or an organic EL (electroluminescence) panel.

ステージ60は、X方向移動機構、Y方向移動機構およびZ方向移動機構を有する。X方向移動機構、Y方向移動機構およびZ方向移動機構には、ステッピングモータが用いられる。   The stage 60 has an X direction moving mechanism, a Y direction moving mechanism, and a Z direction moving mechanism. Stepping motors are used for the X direction moving mechanism, the Y direction moving mechanism, and the Z direction moving mechanism.

ステージ60のX方向移動機構、Y方向移動機構およびZ方向移動機構は、ステージ操作部61およびステージ駆動部62により駆動される。使用者は、ステージ操作部61を手動で操作することにより、ステージ60を対物レンズ3に対して相対的にX方向、Y方向およびZ方向に移動させることができる。   The X direction moving mechanism, the Y direction moving mechanism, and the Z direction moving mechanism of the stage 60 are driven by a stage operation unit 61 and a stage driving unit 62. The user can move the stage 60 in the X direction, the Y direction, and the Z direction relative to the objective lens 3 by manually operating the stage operation unit 61.

ステージ駆動部62は、PC200より与えられる駆動パルスに基づいて、ステージ60のステッピングモータに電流を供給することにより、ステージ60を対物レンズ3に相対的にX方向、Y方向またはZ方向に移動させることができる。   The stage drive unit 62 moves the stage 60 relative to the objective lens 3 in the X direction, the Y direction, or the Z direction by supplying a current to the stepping motor of the stage 60 based on the drive pulse given from the PC 200. be able to.

共焦点顕微鏡システム500は、後述する第1の動作モードおよび第2の動作モードで動作可能に構成されている。   The confocal microscope system 500 is configured to be operable in a first operation mode and a second operation mode to be described later.

(2)共焦点画像、超深度画像および高さ画像
以下、第1の動作モードにおける共焦点顕微鏡システム500の動作を説明する。
(2) Confocal Image, Ultra Depth Image, and Height Image Hereinafter, the operation of the confocal microscope system 500 in the first operation mode will be described.

図2は、X方向、Y方向およびZ方向を定義するための図である。図2に示すように、対物レンズ3により集光されたレーザ光が観察対象物Sに照射される。本実施の形態においては、対物レンズ3の光軸の方向をZ方向と定義する。また、Z方向と直交する面において、互いに直交する二方向をそれぞれX方向およびY方向と定義する。X方向、Y方向およびZ方向を矢印X,Y,Zでそれぞれ示す。   FIG. 2 is a diagram for defining the X direction, the Y direction, and the Z direction. As shown in FIG. 2, the observation object S is irradiated with the laser light condensed by the objective lens 3. In the present embodiment, the direction of the optical axis of the objective lens 3 is defined as the Z direction. Further, two directions orthogonal to each other on the surface orthogonal to the Z direction are defined as an X direction and a Y direction, respectively. The X, Y, and Z directions are indicated by arrows X, Y, and Z, respectively.

Z方向において対物レンズ3に対する観察対象物Sの表面の相対的な位置を観察対象物SのZ方向の位置と呼ぶ。共焦点画像データの生成は、単位領域ごとに行なわれる。単位領域は対物レンズ3の倍率により定まる。   The relative position of the surface of the observation object S with respect to the objective lens 3 in the Z direction is referred to as the position of the observation object S in the Z direction. The confocal image data is generated for each unit area. The unit area is determined by the magnification of the objective lens 3.

観察対象物SのZ方向の位置が一定の状態で、X−Yスキャン光学系20により単位領域内のY方向の端部でレーザ光がX方向に走査される。X方向の走査が終了すると、レーザ光がX−Yスキャン光学系20によりY方向に一定の間隔変移される。この状態でレーザ光がX方向に走査される。単位領域内でレーザ光のX方向の走査およびY方向の変移が繰り返されることにより、単位領域のX方向およびY方向の走査が終了する。次に、対物レンズ3がZ方向に移動される。それにより、対物レンズ3のZ方向の位置が前回と異なる一定の状態で、単位領域のX方向およびY方向の走査が行なわれる。観察対象物SのZ方向の複数の位置で単位領域のX方向およびY方向の走査が行なわれる。   While the position of the observation object S in the Z direction is constant, the XY scanning optical system 20 scans the laser beam in the X direction at the end in the Y direction in the unit region. When the scanning in the X direction is completed, the laser beam is shifted by the XY scanning optical system 20 at a constant interval in the Y direction. In this state, the laser beam is scanned in the X direction. By repeating the scanning of the laser beam in the X direction and the shifting in the Y direction within the unit region, the scanning of the unit region in the X direction and the Y direction is completed. Next, the objective lens 3 is moved in the Z direction. Thereby, the scanning in the X direction and the Y direction of the unit area is performed in a constant state where the position of the objective lens 3 in the Z direction is different from the previous time. The unit region is scanned in the X and Y directions at a plurality of positions in the Z direction of the observation object S.

観察対象物SのZ方向の位置ごとにX方向およびY方向の走査により共焦点画像データが生成される。これにより、単位領域内でZ方向の位置が異なる複数の共焦点画像データが生成される。   Confocal image data is generated by scanning in the X and Y directions for each position of the observation object S in the Z direction. As a result, a plurality of confocal image data having different positions in the Z direction within the unit region is generated.

ここで、共焦点画像データのX方向の画素数は、X−Yスキャン光学系20によるレーザ光のX方向の走査速度と制御部300のサンプリング周期とにより定まる。1回のX方向の走査(1本の走査線)におけるサンプリング数がX方向の画素数となる。また、単位領域の共焦点画像データのY方向の画素数は、X方向の走査の終了ごとのX−Yスキャン光学系20によるレーザ光のY方向の変移量により定まる。Y方向における走査線の数がY方向の画素数となる。さらに、単位領域の共焦点画像データの数は、観察対象物SのZ方向の移動回数により定まる。単位領域の複数の共焦点画像データに基づいて、後述する方法で超深度画像データおよび高さ画像データが生成される。   Here, the number of pixels in the X direction of the confocal image data is determined by the scanning speed of the laser beam in the X direction by the XY scanning optical system 20 and the sampling period of the control unit 300. The number of samples in one X-direction scan (one scan line) is the number of pixels in the X direction. Further, the number of pixels in the Y direction of the confocal image data in the unit area is determined by the amount of shift in the Y direction of the laser beam by the XY scan optical system 20 at the end of scanning in the X direction. The number of scanning lines in the Y direction is the number of pixels in the Y direction. Furthermore, the number of confocal image data in the unit area is determined by the number of movements of the observation object S in the Z direction. Based on the plurality of confocal image data in the unit area, ultra-depth image data and height image data are generated by a method described later.

図2の例では、まず、ステージ60の最初の位置で単位領域s1における観察対象物Sの複数の共焦点画像データが生成されるとともに単位領域s1の超深度画像データおよび高さ画像データが生成される。続いて、ステージ60が順次移動することにより単位領域s2〜s4における観察対象物Sの複数の共焦点画像データが生成されるとともに単位領域s2〜s4の超深度画像データおよび高さ画像データが生成される。この場合、隣接する単位領域の一部が互いに重なるように、単位領域s1〜s4が設定されてもよい。それにより、パターンマッチングを行うことにより、複数の単位領域s1〜s4の超深度画像データおよび高さ画像データを高い精度で連結することができる。特に、複数の単位領域の合計の面積が後述する画素データの取得範囲よりも大きい場合には、取得範囲からはみ出す部分の面積に相当する部分が重なり部分として設定される。   In the example of FIG. 2, first, a plurality of confocal image data of the observation object S in the unit region s1 is generated at the initial position of the stage 60, and ultra-depth image data and height image data of the unit region s1 are generated. Is done. Subsequently, the stage 60 is sequentially moved to generate a plurality of confocal image data of the observation object S in the unit regions s2 to s4 and to generate ultra-depth image data and height image data of the unit regions s2 to s4. Is done. In this case, the unit regions s1 to s4 may be set so that adjacent unit regions partially overlap each other. Thereby, by performing pattern matching, the ultra-depth image data and the height image data of the plurality of unit regions s1 to s4 can be connected with high accuracy. In particular, when the total area of the plurality of unit regions is larger than the pixel data acquisition range described later, a portion corresponding to the area of the portion that protrudes from the acquisition range is set as an overlapping portion.

図3は、1つの画素において観察対象物SのZ方向の位置と受光素子30の受光強度との関係を示す図である。図1に示したように、ピンホール部材7のピンホールはレンズ2の焦点位置に配置される。そのため、観察対象物Sの表面が対物レンズ3の焦点位置にあるときに、観察対象物Sにより反射されたレーザ光がピンホール部材7のピンホールの位置に集光される。それにより、観察対象物Sにより反射されたレーザ光の大部分がピンホール部材7のピンホールを通過して受光素子30に入射する。この場合、受光素子30の受光強度は最大になる。それにより、受光素子30から出力される受光信号の電圧値は最大となる。   FIG. 3 is a diagram showing the relationship between the position of the observation object S in the Z direction and the light receiving intensity of the light receiving element 30 in one pixel. As shown in FIG. 1, the pinhole of the pinhole member 7 is disposed at the focal position of the lens 2. Therefore, when the surface of the observation object S is at the focal position of the objective lens 3, the laser light reflected by the observation object S is condensed at the pinhole position of the pinhole member 7. Thereby, most of the laser beam reflected by the observation object S passes through the pinhole of the pinhole member 7 and enters the light receiving element 30. In this case, the light receiving intensity of the light receiving element 30 is maximized. As a result, the voltage value of the light reception signal output from the light receiving element 30 is maximized.

一方、観察対象物Sが対物レンズ3の焦点位置が外れた位置にあるときには、観察対象物Sにより反射されたレーザ光はピンホール部材7のピンホールの前または後の位置に集光される。それにより、観察対象物Sにより反射されたレーザ光の多くはピンホール部材7のピンホールの周囲の部分で遮られ、受光素子30の受光強度は低下する。それにより、受光素子30から出力される受光信号の電圧値は低下する。   On the other hand, when the observation object S is at a position out of the focal position of the objective lens 3, the laser light reflected by the observation object S is condensed at a position before or after the pinhole of the pinhole member 7. . Thereby, most of the laser light reflected by the observation object S is blocked by the portion around the pinhole of the pinhole member 7, and the light receiving intensity of the light receiving element 30 is reduced. As a result, the voltage value of the light reception signal output from the light receiving element 30 decreases.

このように、観察対象物Sの表面が対物レンズ3の焦点位置にある状態で受光素子30の受光強度分布にピークが現れる。各単位領域の複数の共焦点画像データから、画素ごとにZ方向における受光強度分布が得られる。それにより、画素ごとに受光強度分布のピーク位置とピーク強度(ピークの受光強度)とが得られる。   Thus, a peak appears in the light reception intensity distribution of the light receiving element 30 in a state where the surface of the observation object S is at the focal position of the objective lens 3. The received light intensity distribution in the Z direction is obtained for each pixel from a plurality of confocal image data of each unit region. Thereby, the peak position and peak intensity (peak received light intensity) of the received light intensity distribution are obtained for each pixel.

各単位領域の複数の画素についてのZ方向におけるピーク位置を表すデータを高さ画像データと呼び、高さ画像データに基づいて表示される画像を高さ画像と呼ぶ。高さ画像は、観察対象物Sの表面形状を表す。また、各単位領域の複数の画素についてのピーク強度を表すデータを超深度画像データと呼び、超深度画像データに基づいて表される画像を超深度画像と呼ぶ。超深度画像は、観察対象物Sの表面のすべての部分にピントが合った状態で得られる画像である。PC200は、制御部300から与えられる単位領域の複数の画素データに基づいて単位領域の複数の共焦点画像データを生成し、複数の共焦点画像データに基づいて単位領域の高さ画像データおよび超深度画像データを生成する。   Data representing peak positions in the Z direction for a plurality of pixels in each unit area is referred to as height image data, and an image displayed based on the height image data is referred to as a height image. The height image represents the surface shape of the observation object S. In addition, data representing the peak intensity for a plurality of pixels in each unit area is referred to as ultra-deep image data, and an image represented based on the ultra-depth image data is referred to as an ultra-depth image. The ultra-deep image is an image obtained in a state where all parts of the surface of the observation object S are in focus. The PC 200 generates a plurality of confocal image data of the unit region based on the plurality of pixel data of the unit region given from the control unit 300, and the height image data and the super image of the unit region based on the plurality of confocal image data. Generate depth image data.

(3)断面曲線
図4は、観察対象物Sの表面形状を示す図である。図4(a)に示すように、観察対象物Sの表面は、起伏が連続する形状を有する。観察対象物Sの表面上を垂直な平面で切断したとき、その切断面に現れる観察対象物Sの表面上の曲線を断面曲線と呼ぶ。また、断面曲線を表すデータを断面曲線データと呼ぶ。図4(b)に示すように、観察対象物Sの表面において、起伏の周期が比較的短く、起伏の深さに比べて起伏の間隔が比較的小さい断面形状を粗さと呼ぶ。断面曲線から所定のカットオフ波長λcよりも短い波長を有する成分を抽出することにより得られる曲線を粗さ曲線と呼ぶ。図4(c)に示すように、観察対象物Sの表面において、粗さの起伏の周期よりも長い起伏の周期を有する断面形状をうねりと呼ぶ。断面曲線から所定のカットオフ波長λcよりも長い波長を有する成分を抽出することにより得られる曲線をうねり曲線と呼ぶ。後述するように、観察対象物Sの断面曲線データを生成し、その断面曲線データの解析を行うことにより、観察対象物Sの表面性状を表す表面性状パラメータを算出することができる。
(3) Sectional Curve FIG. 4 is a diagram showing the surface shape of the observation object S. As shown in FIG. 4A, the surface of the observation object S has a shape in which undulations continue. When the surface of the observation object S is cut along a vertical plane, a curve on the surface of the observation object S that appears on the cut surface is called a cross-sectional curve. Data representing a cross-sectional curve is referred to as cross-sectional curve data. As shown in FIG. 4B, a cross-sectional shape having a relatively short undulation period and a relatively small undulation interval on the surface of the observation object S is called roughness. A curve obtained by extracting a component having a wavelength shorter than the predetermined cutoff wavelength λc from the cross-sectional curve is called a roughness curve. As shown in FIG. 4C, a cross-sectional shape having a undulation period longer than the roughness undulation period on the surface of the observation object S is called undulation. A curve obtained by extracting a component having a wavelength longer than the predetermined cutoff wavelength λc from the cross-sectional curve is called a waviness curve. As will be described later, by generating cross-section curve data of the observation object S and analyzing the cross-section curve data, a surface property parameter representing the surface property of the observation object S can be calculated.

(4)画素データの取得範囲の設定
以下、第2の動作モードにおける共焦点顕微鏡システム500の動作を説明する。
(4) Setting of Acquisition Range of Pixel Data Hereinafter, the operation of the confocal microscope system 500 in the second operation mode will be described.

断面曲線データの生成時には、X方向に沿って連続する複数の帯状領域が画素データの取得範囲として設定される。各帯状領域では、X方向に平行な複数の測定ライン(走査線)上でレーザ光が走査される。それにより、PC200は、複数の測定ラインに基づく画素データを制御部300から取得する。各帯状領域の幅は、上記の単位領域のY方向の幅よりも短い。したがって、各帯状領域に含まれる測定ライン数は、単位領域に含まれる測定ライン数よりも少ない。   At the time of generating the cross-sectional curve data, a plurality of band-like regions that are continuous along the X direction are set as the pixel data acquisition range. In each strip region, the laser beam is scanned on a plurality of measurement lines (scanning lines) parallel to the X direction. Thereby, the PC 200 acquires pixel data based on a plurality of measurement lines from the control unit 300. The width of each strip region is shorter than the width of the unit region in the Y direction. Therefore, the number of measurement lines included in each strip region is smaller than the number of measurement lines included in the unit region.

図5は、画素データの取得範囲の設定時における表示部400の表示例を示す図である。図5に示すように、表示部400の画面上には、画像表示領域410および条件設定領域420が表示される。画像表示領域410には、共焦点画像データに基づく共焦点画像またはカメラ画像データに基づくカメラ画像が表示される。条件設定領域420には、測定点設定部421、測定長さ設定部422、測定高さ設定部423および測定開始指示部424が表示される。   FIG. 5 is a diagram illustrating a display example of the display unit 400 when the pixel data acquisition range is set. As shown in FIG. 5, an image display area 410 and a condition setting area 420 are displayed on the screen of the display unit 400. In the image display area 410, a confocal image based on the confocal image data or a camera image based on the camera image data is displayed. In the condition setting area 420, a measurement point setting unit 421, a measurement length setting unit 422, a measurement height setting unit 423, and a measurement start instruction unit 424 are displayed.

使用者は、図1の共焦点顕微鏡システム500のステージ60に観察対象物Sを載置する。これにより、制御部300は、カメラデータを順次PC200に与える。PC200のCPU210は、制御部300により与えられたカメラデータに基づいてカメラ画像データを生成し、観察対象物Sのカメラ画像を表示部400の画像表示領域410に表示させる。この状態で、使用者は、以下に示す方法により画素データの取得範囲を指示することができる。この場合、使用者は、ステージ60をX方向またはY方向に移動させることにより画像表示領域410に表示される観察対象物Sのカメラ画像の範囲を変更することができる。   The user places the observation object S on the stage 60 of the confocal microscope system 500 of FIG. Thereby, the control part 300 gives camera data to PC200 sequentially. The CPU 210 of the PC 200 generates camera image data based on the camera data given by the control unit 300 and displays the camera image of the observation object S in the image display area 410 of the display unit 400. In this state, the user can specify the acquisition range of the pixel data by the following method. In this case, the user can change the range of the camera image of the observation object S displayed in the image display area 410 by moving the stage 60 in the X direction or the Y direction.

上記のように、断面曲線データの生成時には、X方向に沿って連続する複数の帯状領域が画素データの取得範囲として設定される。この場合、各帯状領域におけるX方向の測定ラインの長さを単位長Lと呼ぶ。単位長Lは、各帯状領域のX方向におけるレーザ光の走査長さである。また、各帯状領域における測定ラインの数を測定ライン数Nと呼ぶ。また、連結された複数の帯状領域の全体の長さが評価長さとなる。   As described above, when the cross-sectional curve data is generated, a plurality of band-like regions continuous along the X direction are set as the pixel data acquisition range. In this case, the length of the measurement line in the X direction in each band-like region is referred to as a unit length L. The unit length L is the scanning length of the laser beam in the X direction of each strip region. Further, the number of measurement lines in each band-like region is referred to as a measurement line number N. Further, the total length of the plurality of connected strip-like regions is the evaluation length.

各帯状領域の測定ライン数Nは30以上100以下であることが好ましい。測定ライン数Nが30以上である場合、複数の測定ラインに対応する複数の表面性状パラメータが算出されるので、観察対象物Sの表面性状を正確に検出することができる。また、後述するように、観察対象物Sの表面性状パラメータの算出結果に対して信頼性が向上する種々の処理を行うことができる。さらに、各帯状領域の断面曲線データと隣接する帯状領域の断面曲線データとを連結する際に、Y方向においてパターンマッチングを行うことができる。一方、測定ライン数Nが100以下である場合、取得される画素データの量を低減することができる。また、画素データの取得に要する時間を短縮化することができる。   The number N of measurement lines in each strip region is preferably 30 or more and 100 or less. When the number N of measurement lines is 30 or more, a plurality of surface property parameters corresponding to a plurality of measurement lines are calculated, so that the surface property of the observation object S can be accurately detected. Further, as will be described later, various processes for improving the reliability of the calculation result of the surface property parameter of the observation object S can be performed. Furthermore, pattern matching can be performed in the Y direction when connecting the cross-sectional curve data of each band-shaped region and the cross-sectional curve data of the adjacent band-shaped region. On the other hand, when the number of measurement lines N is 100 or less, the amount of acquired pixel data can be reduced. In addition, the time required to acquire pixel data can be shortened.

図6は、条件設定領域420に表示される測定点設定部421および測定長さ設定部422を示す図である。図6に示すように、測定点設定部421は、始点設定ボタン421aを含む。測定長さ設定部422は、評価長さ指定部422aおよび連結数表示部422bを含む。図7は、条件設定領域420に表示される測定高さ設定部423および測定開始指示部424を示す図である。図7に示すように、測定高さ設定部423は、上限設定部423aおよび下限設定部423bを含む。測定開始指示部424は、測定開始ボタン424aを含む。   FIG. 6 is a diagram showing a measurement point setting unit 421 and a measurement length setting unit 422 displayed in the condition setting area 420. As shown in FIG. 6, the measurement point setting unit 421 includes a start point setting button 421a. The measurement length setting unit 422 includes an evaluation length designation unit 422a and a connection number display unit 422b. FIG. 7 is a diagram showing a measurement height setting unit 423 and a measurement start instruction unit 424 displayed in the condition setting area 420. As shown in FIG. 7, the measurement height setting unit 423 includes an upper limit setting unit 423a and a lower limit setting unit 423b. The measurement start instruction unit 424 includes a measurement start button 424a.

使用者は、図1のPC200に接続されたマウス等のポインティングデバイスを用いて、図5の表示部400に表示される図示しない測定ライン数入力部に測定ライン数Nを入力する。測定ライン数Nは、例えば64である。   The user inputs the measurement line number N to a measurement line number input unit (not shown) displayed on the display unit 400 of FIG. 5 using a pointing device such as a mouse connected to the PC 200 of FIG. The number N of measurement lines is 64, for example.

次に、使用者は、観察対象物Sの表面の測定したい部分が図5の画像表示領域410の略中央に表示されるように図1のステージ60を調整する。ここで、使用者は、測定点設定部421の始点設定ボタン421aを操作する。これにより、画像表示領域410の略中央に表示されている観察対象物Sの表面の部分が測定ラインの始点として設定される。   Next, the user adjusts the stage 60 in FIG. 1 so that the portion of the surface of the observation object S to be measured is displayed in the approximate center of the image display area 410 in FIG. Here, the user operates the start point setting button 421a of the measurement point setting unit 421. As a result, the surface portion of the observation object S displayed at the approximate center of the image display area 410 is set as the starting point of the measurement line.

続いて、使用者は、評価長さ指定部422aに数値を入力することにより評価長さを指定する。使用者は、プルダウンメニューの複数の値のいずれかを選択することにより評価長さを指定することもできる。連結数Mは、連結される複数の帯状領域の数であり、評価長さと単位長Lとの比により定まる。断面曲線データの連結のためにパターンマッチングを行う場合、評価長さは、単位長Lと連結数Mとの積から隣接する帯状領域の重なり部分の合計が減算された値となる。連結数表示部422bには、入力された評価長さに基づいて連結数Mが表示される。   Subsequently, the user designates the evaluation length by inputting a numerical value into the evaluation length designation unit 422a. The user can also specify the evaluation length by selecting one of a plurality of values in the pull-down menu. The connection number M is the number of a plurality of band-like regions to be connected, and is determined by the ratio between the evaluation length and the unit length L. When pattern matching is performed for connection of cross-sectional curve data, the evaluation length is a value obtained by subtracting the sum of overlapping portions of adjacent strip-like regions from the product of the unit length L and the number of connections M. The connection number display unit 422b displays the connection number M based on the input evaluation length.

その後、使用者は、観察対象物Sに対する図1の対物レンズ3の相対的なZ方向の移動範囲を指示する。対物レンズ3のZ方向の移動範囲の上限および下限は、上限設定部423aおよび下限設定部423bにそれぞれ数値を入力することにより行われる。これにより、対物レンズ3のZ方向の移動範囲の上限および下限が設定される。対物レンズ3のZ方向の移動範囲の上限および下限は、図1のCPU210により自動的に設定されてもよい。   Thereafter, the user instructs a range of movement of the objective lens 3 in FIG. The upper limit and lower limit of the movement range of the objective lens 3 in the Z direction are performed by inputting numerical values to the upper limit setting unit 423a and the lower limit setting unit 423b, respectively. Thereby, the upper limit and the lower limit of the movement range of the objective lens 3 in the Z direction are set. The upper limit and the lower limit of the movement range of the objective lens 3 in the Z direction may be automatically set by the CPU 210 in FIG.

上記の測定ラインの始点の設定、測定長さの設定および測定高さの設定が行われた後、使用者は測定開始ボタン424aを操作する。これにより、画素データの取得処理が実行される。なお、測定ラインの始点の設定、測定長さの設定および測定高さの設定の順序は上記の順序に限定されない。   After the measurement line start point, measurement length, and measurement height are set, the user operates the measurement start button 424a. Thereby, pixel data acquisition processing is executed. Note that the order of setting the start point of the measurement line, setting the measurement length, and setting the measurement height is not limited to the above order.

また、使用者は、マウス等のポインティングデバイスを用いて、画像表示領域410に表示された観察対象物Sのカメラ画像または共焦点画像上で画素データの取得範囲を指示することもできる。これにより、使用者は、断面曲線データの取得範囲を容易に指示することができる。   In addition, the user can specify a pixel data acquisition range on the camera image or confocal image of the observation object S displayed in the image display area 410 using a pointing device such as a mouse. Thereby, the user can easily specify the acquisition range of the cross-sectional curve data.

さらに、使用者は、ポインティングデバイスを用いて、画像表示領域410に表示された観察対象物Sのカメラ画像または共焦点画像上の帯状領域または複数の測定ラインをY方向に移動させることができる。これにより、使用者は、観察対象物S上のY方向における帯状領域または複数の測定ラインの位置を指示することができる。   Further, the user can move the band-like region or the plurality of measurement lines on the camera image or confocal image of the observation object S displayed in the image display region 410 using the pointing device in the Y direction. Thereby, the user can indicate the positions of the band-like region or the plurality of measurement lines in the Y direction on the observation object S.

(5)画像処理方法
図8および図9は、共焦点顕微鏡システム500における画像処理方法を示すフローチャートである。図10は、複数の帯状領域におけるレーザ光の走査方法を示す図である。図11は、複数の帯状領域における断面曲線データの連結方法を示す図である。図1のPC200のCPU210は、記憶装置240に記憶される画像処理プログラムに従って画像処理方法を実行する。以下、図8〜図11を用いてCPU210による画像処理方法を説明する。なお、図10および図11においては、連結数Mを3として図示している。
(5) Image Processing Method FIGS. 8 and 9 are flowcharts showing an image processing method in the confocal microscope system 500. FIG. 10 is a diagram illustrating a laser beam scanning method in a plurality of band-like regions. FIG. 11 is a diagram illustrating a method of connecting cross-sectional curve data in a plurality of belt-like regions. 1 executes an image processing method according to an image processing program stored in the storage device 240. Hereinafter, the image processing method by the CPU 210 will be described with reference to FIGS. In FIGS. 10 and 11, the number M of connections is shown as 3.

CPU210は、制御部300により与えられるカメラデータに基づいてカメラ画像データを生成し、カメラ画像データに基づいて観察対象物Sのカメラ画像を図5の表示部400の画像表示領域410に表示させる(ステップS1)。   CPU210 produces | generates camera image data based on the camera data given by the control part 300, and displays the camera image of the observation target S on the image display area 410 of the display part 400 of FIG. 5 based on camera image data (FIG. Step S1).

ここで、使用者は、測定ライン数Nを指示する。CPU210は、使用者の指示に基づいて、測定ライン数Nを設定する(ステップS2)。設定された測定ライン数Nは作業用メモリ230に記憶される。なお、測定ライン数Nは、固定値として記憶装置240に記憶されていてもよい。その場合、ステップS2の処理は省略される。   Here, the user instructs the number N of measurement lines. CPU210 sets the number N of measurement lines based on a user's instruction (step S2). The set number N of measurement lines is stored in the work memory 230. Note that the number N of measurement lines may be stored in the storage device 240 as a fixed value. In that case, the process of step S2 is omitted.

次に、使用者は、測定ラインの始点を指示する。CPU210は、使用者の指示に基づいて測定ラインの始点を設定する(ステップS3)。設定された測定ライン数の始点は作業用メモリ230に記憶される。   Next, the user indicates the starting point of the measurement line. CPU210 sets the starting point of a measurement line based on a user's instruction (Step S3). The start point of the set number of measurement lines is stored in the work memory 230.

続いて、使用者は、評価長さを指示する。CPU210は、使用者の指示に基づいて評価長さを設定するとともに、評価長さに基づいて連結数Mを設定する(ステップS4)。設定された評価長さおよび連結数Mは作業用メモリ230に記憶される。また、CPU210は、設定された連結数Mを図6の連結数表示部422bに表示する。   Subsequently, the user instructs the evaluation length. The CPU 210 sets the evaluation length based on the user's instruction, and sets the number of connections M based on the evaluation length (step S4). The set evaluation length and connection number M are stored in the work memory 230. Further, the CPU 210 displays the set connection number M on the connection number display unit 422b in FIG.

その後、使用者は、観察対象物Sに対する図1の対物レンズ3の相対的なZ方向の移動範囲を指示する。CPU210は、使用者の指示に基づいて対物レンズ3のZ方向の移動範囲を設定する(ステップS5)。   Thereafter, the user instructs a range of movement of the objective lens 3 in FIG. The CPU 210 sets a movement range in the Z direction of the objective lens 3 based on a user instruction (step S5).

次に、使用者は、測定開始を指示する。CPU210は、使用者により測定開始を指示されると、作業用メモリ230に記憶された測定ライン数N、測定ラインの始点、評価長さおよび連結数Mに基づいて、帯状領域の位置および画素データの取得範囲を設定する(ステップS6)。設定された帯状領域の位置および画素データの取得範囲は作業用メモリ230に記憶される。   Next, the user instructs the start of measurement. When the CPU 210 is instructed to start measurement, the CPU 210 determines the position of the band-like region and the pixel data based on the number N of measurement lines, the starting point of the measurement lines, the evaluation length, and the number M of connections stored in the work memory 230. The acquisition range is set (step S6). The set position of the band-like area and the acquisition range of the pixel data are stored in the work memory 230.

続いて、CPU210は、作業用メモリ230に記憶された帯状領域の位置に基づいて図1のステージ駆動部62にX方向への移動用の駆動パルスおよびY方向への移動用の駆動パルスの一方または両方を与えることによりステージ60の移動を指令する(ステップS7)。1番目の帯状領域の断面曲線データの生成時には、CPU210は1番目の帯状領域においてレーザ光の走査が可能なようにステージ駆動部62にステージ60のX方向およびY方向のうち一方向または両方向への移動を指令する。2番目以降の帯状領域の断面曲線データの生成時には、CPU210はステージ駆動部62にステージ60のX方向への移動を指令する。   Subsequently, based on the position of the band-shaped area stored in the work memory 230, the CPU 210 applies one of the driving pulse for movement in the X direction and the driving pulse for movement in the Y direction to the stage driving unit 62 in FIG. Alternatively, the movement of the stage 60 is commanded by giving both (step S7). At the time of generating the cross-sectional curve data of the first belt-like region, the CPU 210 causes the stage driving unit 62 to move in one or both directions of the X and Y directions of the stage 60 so that the laser beam can be scanned in the first belt-like region. Command to move. When generating the cross-sectional curve data of the second and subsequent belt-like regions, the CPU 210 instructs the stage driving unit 62 to move the stage 60 in the X direction.

その後、CPU210は、制御部300にX方向の走査におけるサンプリング数、測定ライン数NおよびZ方向の移動範囲を通知するとともに帯状領域の複数の画素データの取得を指令する(ステップS8)。   Thereafter, the CPU 210 notifies the control unit 300 of the number of samplings in the scanning in the X direction, the number of measurement lines N, and the movement range in the Z direction, and commands acquisition of a plurality of pixel data in the band-like region (step S8).

制御部300は、CPU210から通知されたX方向の走査におけるサンプリング数、測定ライン数NおよびZ方向の移動範囲に基づいて、図1のX−Yスキャン光学系20を制御するとともに対物レンズ3のZ方向の位置を移動させ、受光素子30から出力される受光信号に基づいて画素データをPC200のCPU210に与える。CPU210は、制御部300から帯状領域の複数の画素データを取得する(ステップS9)。これにより、図10に示すように、一の帯状領域の複数の測定ラインにおいて、Z方向の位置が異なる複数の画素データが取得される。CPU210は、取得した複数の測定ラインの画素データに基づいて帯状領域の複数の断面曲線データを生成し(ステップS10)、作業用メモリ230に記憶する。   The control unit 300 controls the XY scan optical system 20 of FIG. 1 based on the number of samplings in the X-direction scan notified from the CPU 210, the number of measurement lines N, and the movement range in the Z direction, and the objective lens 3 The position in the Z direction is moved, and pixel data is given to the CPU 210 of the PC 200 based on the light reception signal output from the light receiving element 30. CPU210 acquires the some pixel data of a strip | belt-shaped area | region from the control part 300 (step S9). Thereby, as shown in FIG. 10, a plurality of pixel data having different positions in the Z direction are acquired in a plurality of measurement lines in one band-like region. The CPU 210 generates a plurality of cross-section curve data of the band-like region based on the acquired pixel data of the plurality of measurement lines (step S10) and stores them in the work memory 230.

この場合、各断面曲線データは、各測定ライン上の複数の複数の画素についてのZ方向におけるピーク位置を表す。また、断面曲線は、測定ライン上の表面形状を表す。このとき、帯状領域の複数の測定ラインに対応する複数の超深度線状データが生成される。超深度線状データは、各測定ライン上の複数の画素についてのピーク強度を表すデータである。超深度線状データに基づいて表示される画像を超深度線状画像と呼ぶ。   In this case, each cross-section curve data represents a peak position in the Z direction for a plurality of pixels on each measurement line. The cross-sectional curve represents the surface shape on the measurement line. At this time, a plurality of ultra-deep linear data corresponding to a plurality of measurement lines in the band-like region is generated. The ultra-deep linear data is data representing peak intensities for a plurality of pixels on each measurement line. An image displayed based on the ultra-deep linear data is referred to as an ultra-deep linear image.

ここで、CPU210は、全ての帯状領域の断面曲線データを生成したか否かを判定する(ステップS11)。全ての帯状領域の断面曲線データを生成していない場合、CPU210は、ステップS7の処理に戻る。CPU210は、次の帯状領域の断面曲線データの生成が可能な位置にステージ60を移動させ、ステップS8〜S11の処理を繰り返す。これにより、図10に示すように、全ての帯状領域の複数の測定ラインにおいて、Z方向の位置が異なる複数の画素データが取得される。CPU210は、取得した複数の測定ラインの画素データに基づいて帯状領域の複数の断面曲線データを生成し、作業用メモリ230に記憶する。   Here, the CPU 210 determines whether or not the cross-section curve data of all the band-like regions has been generated (step S11). When the cross-sectional curve data for all the strip-like regions has not been generated, the CPU 210 returns to the process of step S7. CPU210 moves the stage 60 to the position which can produce | generate the cross-sectional curve data of the following strip | belt-shaped area | region, and repeats the process of step S8-S11. As a result, as shown in FIG. 10, a plurality of pixel data having different positions in the Z direction are acquired in a plurality of measurement lines in all the band-like regions. The CPU 210 generates a plurality of cross-sectional curve data of the belt-like region based on the acquired pixel data of the plurality of measurement lines, and stores the data in the work memory 230.

その後、CPU210は、作業用メモリ230に記憶された連結数Mの帯状領域の断面曲線データを作業用メモリ230を用いて連結する(ステップS12)。これにより、図11に示すように、指示された取得範囲の断面曲線データが生成される。図11においては、断面曲線データを視覚的に表現するために、各帯状領域の断面曲線データに基づいて表示される断面曲線を実線で図示している。なお、連結数Mが1の場合、ステップS12において断面曲線データの連結は行われない。   Thereafter, the CPU 210 uses the work memory 230 to connect the cross-sectional curve data of the number M of the band-shaped areas stored in the work memory 230 (step S12). Thereby, as shown in FIG. 11, cross-sectional curve data of the designated acquisition range is generated. In FIG. 11, in order to visually express the cross-section curve data, the cross-section curve displayed based on the cross-section curve data of each band-like region is shown by a solid line. When the connection number M is 1, the cross-section curve data is not connected in step S12.

次に、CPU210は、観察対象物Sに塵埃等が付着している断面曲線データの部分を不要部分として推定し、断面曲線データから推定された不要部分を除去する(ステップS13)。これにより、複数の測定ラインの一部の上に塵埃、傷または穴が存在する場合でも、不要部分が除去された断面曲線データに基づいて観察対象物Sの表面の断面曲線をより正確に検出することができる。断面曲線データの不要部分の推定方法については後述する。   Next, the CPU 210 estimates a portion of the cross-sectional curve data in which dust or the like is attached to the observation object S as an unnecessary portion, and removes the unnecessary portion estimated from the cross-sectional curve data (step S13). As a result, even when dust, scratches or holes are present on a part of the plurality of measurement lines, the cross-sectional curve of the surface of the observation object S is more accurately detected based on the cross-sectional curve data from which unnecessary portions are removed. can do. A method for estimating the unnecessary portion of the cross-sectional curve data will be described later.

続いて、CPU210は、複数の断面曲線データの各々について、粗さ曲線データおよびうねり曲線データを算出するとともに表面性状パラメータを算出する(ステップS14)。表面性状パラメータについては後述する。最後に、生成された断面曲線データに基づく断面曲線、算出された粗さ曲線データに基づく粗さ曲線および算出されたうねり曲線データに基づくうねり曲線ならびに表面性状パラメータを表示部400に表示し(ステップS15)、画像処理方法を終了する。   Subsequently, the CPU 210 calculates roughness curve data and waviness curve data for each of the plurality of cross-section curve data and calculates a surface property parameter (step S14). The surface property parameter will be described later. Finally, the cross section curve based on the generated cross section curve data, the roughness curve based on the calculated roughness curve data, the waviness curve based on the calculated waviness curve data, and the surface property parameter are displayed on the display unit 400 (steps). S15), the image processing method ends.

(6)ステージの移動補正
ステージ60の取り付け誤差等のため、図1のX−Yスキャン光学系20によるレーザ光の走査方向とステージ60の実際の移動方向とが完全に一致していない場合がある。ステージ60の実際の移動方向がレーザ光の走査方向に対して傾いている場合には、以下に説明するステージ60の移動補正を行う。
(6) Stage movement correction Due to an attachment error of the stage 60, the scanning direction of the laser beam by the XY scanning optical system 20 in FIG. 1 may not completely match the actual movement direction of the stage 60. is there. When the actual moving direction of the stage 60 is inclined with respect to the scanning direction of the laser beam, the movement correction of the stage 60 described below is performed.

図12は、レーザ光の走査方向およびステージ60の実際の移動方向を示す図である。図12(a)には、ステージ60の移動補正が行われない場合のステージ60の移動が示され、図12(b)には、ステージ60の移動補正が行われる場合のステージ60の移動が示される。ここで、レーザ光の走査方向をX方向とし、レーザ光の走査方向に直交する方向をY方向とする。また、ステージ60のX方向への移動指令時にステージ60が実際に移動する方向をX’方向とし、ステージ60のY方向への移動指令時にステージ60が実際に移動する方向をY’方向とする。   FIG. 12 is a diagram showing the scanning direction of the laser light and the actual moving direction of the stage 60. FIG. 12A shows the movement of the stage 60 when the movement correction of the stage 60 is not performed, and FIG. 12B shows the movement of the stage 60 when the movement correction of the stage 60 is performed. Indicated. Here, the scanning direction of the laser light is defined as the X direction, and the direction orthogonal to the scanning direction of the laser light is defined as the Y direction. The direction in which the stage 60 actually moves when the stage 60 moves in the X direction is the X ′ direction, and the direction in which the stage 60 actually moves when the stage 60 moves in the Y direction is the Y ′ direction. .

図12では、移動前のステージ60を実線で示し、移動後のステージ60を点線で示している。ステージ60の移動前にレーザ光のX方向の走査により始点SP1および終点EP1を有する測定ラインSL1が形成される。また、ステージ60の移動後にレーザ光のX方向の走査により始点SP2および終点EP2を有する測定ラインSL2が形成される。   In FIG. 12, the stage 60 before the movement is indicated by a solid line, and the stage 60 after the movement is indicated by a dotted line. Before the stage 60 moves, a measurement line SL1 having a start point SP1 and an end point EP1 is formed by scanning the laser beam in the X direction. Further, a measurement line SL2 having a start point SP2 and an end point EP2 is formed by scanning the laser beam in the X direction after the stage 60 is moved.

図8のステップS7において、CPU210がステージ60のX方向への距離Lx分の移動を指令すると、図12(a)に示すように、ステージ60は実際にはX’方向に距離Lx分移動する。また、ステージ60はX方向の軸からY’方向に距離Ly分移動する。この場合、ステージ60はX方向に移動するとともにY方向にも移動する。そのため、ステージ60の移動前の測定ラインSL1の終点EP1とステージ60の移動後の測定ラインSL2の始点SP2とが一致しない。   In step S7 in FIG. 8, when the CPU 210 commands the movement of the stage 60 in the X direction by the distance Lx, the stage 60 actually moves by the distance Lx in the X ′ direction as shown in FIG. . The stage 60 moves from the X-direction axis by the distance Ly in the Y ′ direction. In this case, the stage 60 moves in the X direction and also in the Y direction. Therefore, the end point EP1 of the measurement line SL1 before the movement of the stage 60 does not match the start point SP2 of the measurement line SL2 after the movement of the stage 60.

本実施の形態においては、図12(b)に示すように、CPU210は、ステージ60のX方向への距離Lx分の移動を指令するとともに−Y方向への距離Ly分の移動を指令する。それにより、ステージ60は実際にはX’方向に距離Lx分移動するとともに−Y’方向に距離Ly分移動する。この場合、ステージ60はX方向に移動し、Y方向には移動しない。このようなステージ60の移動補正により、ステージ60の移動前の測定ラインSL1の終点EP1とステージ60の移動後の測定ラインSL2の始点SP2とが一致する。   In the present embodiment, as shown in FIG. 12B, the CPU 210 commands the movement of the stage 60 by the distance Lx in the X direction and commands the movement of the distance Ly in the −Y direction. Accordingly, the stage 60 actually moves in the X ′ direction by the distance Lx and moves in the −Y ′ direction by the distance Ly. In this case, the stage 60 moves in the X direction and does not move in the Y direction. By such movement correction of the stage 60, the end point EP1 of the measurement line SL1 before the movement of the stage 60 coincides with the start point SP2 of the measurement line SL2 after the movement of the stage 60.

ステージ60の実際の移動方向がレーザ光の走査方向に対して傾いているか否かは、共焦点顕微鏡システムの製造時に作業者により予め判定され、または使用者により断面曲線データの生成前に判定される。それにより、予め以下に示す方法で傾き補正量が算出される。   Whether or not the actual moving direction of the stage 60 is inclined with respect to the scanning direction of the laser beam is determined in advance by an operator at the time of manufacturing the confocal microscope system, or determined by the user before generating the cross-sectional curve data. The Thereby, the inclination correction amount is calculated in advance by the method described below.

図13は、ステージ60の傾き補正量算出処理を示すフローチャートである。図14および図15は、ステージ60の傾き補正量算出処理実行時における表示部400の表示例を示す図である。以下、図13〜図15を用いてCPU210によるステージ60の傾き補正量算出処理を説明する。   FIG. 13 is a flowchart showing the tilt correction amount calculation processing of the stage 60. 14 and 15 are diagrams illustrating display examples of the display unit 400 when the tilt correction amount calculation process of the stage 60 is executed. Hereinafter, the tilt correction amount calculation processing of the stage 60 by the CPU 210 will be described with reference to FIGS.

図14に示すように、表示部400の画面上には、画像表示領域410および条件設定領域420が表示される。画像表示領域410には、カメラ画像データに基づくカメラ画像が表示される。条件設定領域420には、次へボタン425およびキャンセルボタン426が表示される。   As shown in FIG. 14, an image display area 410 and a condition setting area 420 are displayed on the screen of the display unit 400. In the image display area 410, a camera image based on the camera image data is displayed. Next button 425 and cancel button 426 are displayed in condition setting area 420.

使用者は、図1の共焦点顕微鏡システム500のステージ60にチャートCを載置する。チャートCは、ステージ60の傾き補正量算出処理に用いられる観察対象物Sである。チャートCの表面上には、互いに直交する複数の線分および斜め方向の複数の線分を含む複数の線図が描かれている。CPU210は、制御部300により与えられるカメラデータに基づいてカメラ画像データを生成し、カメラ画像データに基づいてチャートCのカメラ画像を表示部400の画像表示領域410に表示させる(ステップS21)。   The user places the chart C on the stage 60 of the confocal microscope system 500 of FIG. Chart C is an observation object S used for the tilt correction amount calculation processing of the stage 60. On the surface of the chart C, a plurality of line diagrams including a plurality of line segments orthogonal to each other and a plurality of line segments in an oblique direction are drawn. CPU210 produces | generates camera image data based on the camera data given by the control part 300, and displays the camera image of the chart C on the image display area 410 of the display part 400 based on camera image data (step S21).

画像表示領域410の任意の位置(図14の例では左上)に特徴点指定枠Rが表示される。使用者は、マウス等のポインティングデバイスを用いて、特徴点指定枠Rに含まれるチャートCの表面上の任意の点を特徴点Fとして指定する。次に、使用者は、条件設定領域420の次へボタン425を操作する。CPU210は、使用者により指定された特徴点Fの座標(XA,YA)を算出する(ステップ22)。算出された特徴点Fの座標(XA,YA)は作業用メモリ230に記憶される。なお、使用者は、次へボタン425を操作するまで何度でも特徴点Fを指定し直すことができる。また、使用者によりキャンセルボタン426が操作されると、CPU210はステージ60の傾き補正量算出処理を中止する。   A feature point designation frame R is displayed at an arbitrary position in the image display area 410 (upper left in the example of FIG. 14). The user designates an arbitrary point on the surface of the chart C included in the feature point designation frame R as the feature point F using a pointing device such as a mouse. Next, the user operates the next button 425 in the condition setting area 420. The CPU 210 calculates the coordinates (XA, YA) of the feature point F designated by the user (step 22). The calculated coordinates (XA, YA) of the feature point F are stored in the work memory 230. Note that the user can re-specify the feature point F as many times as necessary until the next button 425 is operated. Further, when the cancel button 426 is operated by the user, the CPU 210 stops the tilt correction amount calculation process of the stage 60.

次に、CPU210は、ステージ60のX方向への距離LX分の移動を指令する(ステップS23)。距離LXは任意に設定される。この場合、ステージ60は実際にはX’方向に距離LX分移動する。   Next, the CPU 210 commands the movement of the stage 60 by the distance LX in the X direction (step S23). The distance LX is arbitrarily set. In this case, the stage 60 actually moves by a distance LX in the X ′ direction.

それにより、図15に示すように、画像表示領域410において、ステージ60の移動後の位置に対応する位置(図15の例では右上)に特徴点指定枠Rが表示される。また、条件設定領域420には、次へボタン425に代えて終了ボタン427および戻るボタン428が表示される。   As a result, as shown in FIG. 15, the feature point designation frame R is displayed at a position (upper right in the example of FIG. 15) corresponding to the position after the stage 60 is moved in the image display area 410. In the condition setting area 420, an end button 427 and a return button 428 are displayed instead of the next button 425.

ここで、使用者は、特徴点指定枠Rに上述の特徴点Fが含まれていることを確認し、ポインティングデバイスを用いてその特徴点Fを指定する。次に、使用者は、条件設定領域420の終了ボタン427を操作する。CPU210は、使用者により指定された特徴点Fの座標(XB,YB)を算出する(ステップ24)。算出された特徴点Fの座標(XB,YB)は作業用メモリ230に記憶される。   Here, the user confirms that the above-mentioned feature point F is included in the feature point designation frame R, and designates the feature point F using a pointing device. Next, the user operates the end button 427 in the condition setting area 420. The CPU 210 calculates the coordinates (XB, YB) of the feature point F designated by the user (step 24). The calculated coordinates (XB, YB) of the feature point F are stored in the work memory 230.

なお、使用者は、終了ボタン427を操作するまで何度でも特徴点Fを指定し直すことができる。また、使用者により戻るボタン428が操作されると、CPU210はステップS21の処理に戻る。   Note that the user can re-specify the feature point F as many times as necessary until the end button 427 is operated. Further, when the return button 428 is operated by the user, the CPU 210 returns to the process of step S21.

最後に、CPU210は、作業用メモリ230に記憶された移動前の特徴点Fの座標(XA,YA)および作業用メモリ230に記憶された移動後の特徴点Fの座標(XB,YB)を用いて次式により傾き補正量Kを算出し(ステップS25)、ステージの傾き補正量算出処理を終了する。   Finally, the CPU 210 uses the coordinates (XA, YA) of the feature point F before movement stored in the work memory 230 and the coordinates (XB, YB) of the feature point F after movement stored in the work memory 230. The tilt correction amount K is calculated using the following equation (step S25), and the stage tilt correction amount calculation processing is terminated.

K=(YB−YA)/(XB−XA)
上式において、(XB−XA)は、ステージ60のX方向への距離LXの移動指令によりX方向へ実際に移動した距離を示す。また、(YB−YA)は、ステージ60のX方向への距離LXの移動指令によりY方向へ実際に移動した距離を示す。各帯状領域での断面曲線データの生成終了ごとにステージ60のX方向への移動を指令する際の距離Lxに傾き補正量Kを乗算することによりステージ60の−Y方向への移動を指令する距離Lyを算出することができる。
K = (YB-YA) / (XB-XA)
In the above equation, (XB-XA) represents the distance actually moved in the X direction by the movement command of the distance LX in the X direction of the stage 60. Further, (YB−YA) indicates the distance actually moved in the Y direction by the movement command of the distance LX in the X direction of the stage 60. The movement of the stage 60 in the −Y direction is instructed by multiplying the distance Lx when the movement of the stage 60 in the X direction is instructed every time the generation of the cross-section curve data in each belt-shaped area is multiplied by the inclination correction amount K. The distance Ly can be calculated.

なお、傾き補正量Kの算出時のステージ60のX方向への移動指令の距離LXが各帯状領域での断面曲線データの生成終了ごとにステージ60のX方向への移動を指令する距離Lxと等しい場合には、ステージ60の−Y方向への移動を指令する距離Lyは(YB−YA)となる。   Note that the distance LX of the movement command of the stage 60 in the X direction at the time of calculating the tilt correction amount K is the distance Lx that commands the movement of the stage 60 in the X direction every time generation of the cross-section curve data in each belt-like region is completed. If equal, the distance Ly that commands the movement of the stage 60 in the −Y direction is (YB−YA).

傾き補正量Kは、記憶装置240に記憶され、次にステージ60の傾き補正量算出処理が行われるまでステージ60の移動補正に用いられる。   The tilt correction amount K is stored in the storage device 240, and is used for movement correction of the stage 60 until the next stage 60 tilt correction amount calculation processing is performed.

CPU210は、図8のステップS7においてステージ60のX方向への距離Lxの移動を指令する際に、距離Lxと記憶装置240に記憶された傾き補正量Kとの乗算値(=Ly)を算出するとともに、ステージ60の−Y方向への距離Lyの移動を指令する。これにより、レーザ光の走査方向(X方向)とステージ60の実際の移動方向(X’方向)とが完全に一致しない場合でも、ステージ60移動前の測定ラインSL1の終点EP1とステージ60移動後の測定ラインSL2の始点SP2とを一致させることができる。   When the CPU 210 commands the movement of the distance Lx in the X direction of the stage 60 in step S7 of FIG. 8, the CPU 210 calculates a multiplication value (= Ly) of the distance Lx and the inclination correction amount K stored in the storage device 240. In addition, the movement of the distance Ly in the −Y direction of the stage 60 is commanded. Thereby, even when the scanning direction (X direction) of the laser beam and the actual movement direction (X ′ direction) of the stage 60 do not completely coincide with each other, the end point EP1 of the measurement line SL1 before the stage 60 moves and the stage 60 after the movement. It is possible to match the starting point SP2 of the measurement line SL2.

なお、上記の例では、傾き補正量Kの算出時にステージ60のX方向への移動を指令しているが、これに限定されない。例えば、傾き補正量Kの算出時にステージ60のY方向への移動を指令してもよく、ステージ60のX方向およびY方向への移動を指令してもよい。この場合にも、ステージ60の移動前の特徴点の座標と移動後の特徴点の座標とから、レーザ光の走査方向に対するステージ60の実際の移動方向の傾きを算出し、算出結果に基づいてステージ60の移動補正を行う。   In the above example, the movement of the stage 60 in the X direction is commanded when the tilt correction amount K is calculated, but the present invention is not limited to this. For example, when calculating the tilt correction amount K, the movement of the stage 60 in the Y direction may be commanded, or the movement of the stage 60 in the X direction and the Y direction may be commanded. Also in this case, the inclination of the actual moving direction of the stage 60 with respect to the scanning direction of the laser light is calculated from the coordinates of the characteristic points before the movement of the stage 60 and the coordinates of the characteristic points after the movement, and based on the calculation result. The movement correction of the stage 60 is performed.

図16は、連結されたチャートCの超深度線状画像を示す図である。図16(a)〜図16(c)において、3つの帯状領域における超深度線状画像が、矢印Aおよび矢印Bの位置で連結されている。   FIG. 16 is a diagram showing an ultradeep linear image of the chart C connected. In FIG. 16A to FIG. 16C, the ultra-deep linear images in the three belt-like regions are connected at the positions of arrows A and B.

図16(a)は、ステージ60の移動補正が行われない場合において連結されたチャートCの超深度線状画像である。図16(a)に示すように、チャートCの表面上におけるX方向の複数の線分が矢印Aおよび矢印Bの位置で連続しない。それにより、ステージ60の移動補正が行われない場合には、3つの帯状領域における超深度線状画像が正確な位置で連結されないことが確認される。   FIG. 16A is an ultradeep linear image of chart C connected when the movement correction of the stage 60 is not performed. As shown in FIG. 16A, a plurality of line segments in the X direction on the surface of the chart C are not continuous at the positions of the arrows A and B. Thereby, when the movement correction of the stage 60 is not performed, it is confirmed that the ultra-deep linear images in the three belt-like regions are not connected at accurate positions.

図16(b)は、ステージ60の移動補正が行われた場合において連結されたチャートCの超深度線状画像を示す。図16(b)に示すように、チャートCの表面上におけるX方向の複数の線分が矢印Aの位置でほぼ連続している。また、チャートCの表面上におけるX方向の複数の線分が矢印Bの位置で連続している。ステージ60の移動補正が行われた場合には、3つの帯状領域における超深度線状画像がほぼ正確な位置で連結されることが確認される。この場合、一の帯状領域の複数の測定ラインと隣接する帯状領域の複数の測定ラインとをより高い精度で連結することができる。その結果、観察対象物Sの表面の断面曲線をより正確に検出することができる。   FIG. 16B shows an ultradeep linear image of the chart C connected when the movement correction of the stage 60 is performed. As shown in FIG. 16B, a plurality of line segments in the X direction on the surface of the chart C are substantially continuous at the position of the arrow A. Further, a plurality of line segments in the X direction on the surface of the chart C are continuous at the position of the arrow B. When the movement correction of the stage 60 is performed, it is confirmed that the ultra-deep linear images in the three belt-like regions are connected at substantially accurate positions. In this case, a plurality of measurement lines in one band-like region and a plurality of measurement lines in adjacent band-like regions can be connected with higher accuracy. As a result, the cross-sectional curve of the surface of the observation object S can be detected more accurately.

図16(c)は、ステージ60の移動補正が行われた場合において2次元のパターンマッチングにより連結されたチャートCの超深度線状画像を示す。図16(c)に示すように、チャートCの表面上におけるX方向の複数の線分が矢印Aおよび矢印Bの位置で連続している。それにより、ステージ60の移動補正が行われかつ2次元のパターンマッチングが行われた場合には、3つの帯状領域における超深度線状画像が正確な位置で連結されることが確認される。この場合、隣接する帯状領域の複数の測定ラインについての断面曲線データをさらに正確に連結することができる。その結果、観察対象物Sの表面の断面曲線をさらに正確に検出することができる。   FIG. 16C shows an ultra-deep linear image of the chart C connected by two-dimensional pattern matching when the movement correction of the stage 60 is performed. As shown in FIG. 16C, a plurality of line segments in the X direction on the surface of the chart C are continuous at the positions of arrows A and B. Thereby, when the movement correction of the stage 60 is performed and the two-dimensional pattern matching is performed, it is confirmed that the ultra-deep linear images in the three strip regions are connected at accurate positions. In this case, the cross-sectional curve data for a plurality of measurement lines in adjacent strip regions can be more accurately connected. As a result, the cross-sectional curve on the surface of the observation object S can be detected more accurately.

(7)断面曲線データの不要部分の推定方法
図9のステップS13において、断面曲線データの不要部分は、以下に示す種々の方法により推定される。
(7) Method for Estimating Unnecessary Portion of Cross Section Curve Data In step S13 in FIG. 9, the unnecessary portion of the cross sectional curve data is estimated by various methods described below.

(7−1)断面曲線データに基づく推定方法
塵埃等の付着物が存在する観察対象物Sの部分の高さは、付着物が存在しない観察対象物Sの表面の凹凸の高さに比べて高い。そのため、付着物が存在する観察対象物Sの部分に対応する断面曲線データは、付着物が存在しない観察対象物Sの部分に対応する断面曲線データよりも高い値を有する。CPU210は、断面曲線データを適切なしきい値で“1”と“0”とに2値化する。それにより、付着物が存在しない観察対象物Sの部分に対応する2値化データが“0”となり、付着物が存在する観察対象物Sの部分に対応する2値化データが“1”となる。この場合、CPU210は、“1”の2値化データに対応する断面曲線データの部分を不要部分と推定することができる。
(7-1) Estimation Method Based on Cross Section Curve Data The height of the portion of the observation object S where the deposits such as dust are present is higher than the height of the unevenness on the surface of the observation object S where there is no deposits. high. Therefore, the cross-sectional curve data corresponding to the portion of the observation target S where the deposit is present has a higher value than the cross-section curve data corresponding to the portion of the observation target S where the deposit is not present. The CPU 210 binarizes the cross-section curve data into “1” and “0” with an appropriate threshold value. As a result, the binarized data corresponding to the portion of the observation object S where no deposit is present is “0”, and the binarization data corresponding to the portion of the observation object S where the deposit is present is “1”. Become. In this case, the CPU 210 can estimate the section curve data corresponding to the binarized data “1” as an unnecessary part.

また、観察対象物Sの表面の傷または穴の深さは、観察対象物Sの表面の凹凸の深さに比べて大きい。CPU210は、断面曲線データを適切なしきい値で“1”と“0”とに2値化する。それにより、傷または穴の部分に対応する2値化データが“0”となり、傷または穴が存在しない観察対象物Sの部分に対応する2値化データが“1”となる。この場合、CPU210は、“0”の2値化データに対応する断面曲線データの部分を不要部分と推定することができる。   Further, the depth of the scratch or hole on the surface of the observation object S is larger than the depth of the unevenness on the surface of the observation object S. The CPU 210 binarizes the cross-section curve data into “1” and “0” with an appropriate threshold value. As a result, the binarized data corresponding to the flaw or hole portion is “0”, and the binarized data corresponding to the portion of the observation object S where no flaw or hole is present is “1”. In this case, the CPU 210 can estimate the section curve data corresponding to the binarized data of “0” as an unnecessary part.

(7−2)超深度線状データに基づく推定方法
一般に、金属等からなる観察対象物Sの表面は高い反射率を有するため、塵埃等の付着物が存在しない観察対象物Sの部分に対応する超深度線状データは高い値を有する。一方、塵埃等の付着物が存在する観察対象物Sの部分は金属等よりも低い反射率を有するため、塵埃等の付着物が存在する観察対象物Sの部分に対応する超深度線状データは低い値を有する。CPU210は、超深度線状データを適切なしきい値で“1”と“0”とに2値化する。それにより、付着物が存在しない観察対象物Sの部分に対応する2値化データが“1”となり、付着物が存在する観察対象物Sの部分に対応する2値化データが“0”となる。この場合、CPU210は、“0”の2値化データに対応する断面曲線データの部分を不要部分と推定することができる。
(7-2) Estimation method based on ultra-deep linear data Generally, since the surface of the observation object S made of metal or the like has a high reflectance, it corresponds to the portion of the observation object S where there is no deposit such as dust. The ultra-deep linear data that has a high value. On the other hand, since the portion of the observation object S where the deposits such as dust are present has a lower reflectance than the metal or the like, the ultra-deep linear data corresponding to the portion of the observation target S where the deposits such as dust exist. Has a low value. The CPU 210 binarizes the ultra-deep linear data into “1” and “0” with an appropriate threshold value. As a result, the binarized data corresponding to the portion of the observation target S where no deposit is present is “1”, and the binarization data corresponding to the portion of the observation target S where the deposit is present is “0”. Become. In this case, the CPU 210 can estimate the section curve data corresponding to the binarized data of “0” as an unnecessary part.

(7−3)カメラ画像データに基づく推定方法
断面曲線データおよび超深度線状データに基づく推定の場合と同様に、CPU210がカメラ画像データを適切なしきい値で2値化することにより、断面曲線データの不要部分を推定することができる。
(7-3) Estimation Method Based on Camera Image Data Similar to the case of estimation based on cross-sectional curve data and ultra-deep linear data, the CPU 210 binarizes the camera image data with an appropriate threshold value, so that the cross-sectional curve Unnecessary portions of data can be estimated.

また、CPU210がカメラ画像データの画像処理により塵埃等の付着物、傷および穴等による断面曲線データの不要部分を推定することができる。   In addition, the CPU 210 can estimate an unnecessary portion of the cross-sectional curve data due to adhered matter such as dust, scratches and holes by image processing of the camera image data.

(7−4)その他の推定方法
断面曲線データの不要部分は、上記の推定方法のうち、2つ以上の推定方法を組み合わせることにより推定されてもよい。これにより、より確実に断面曲線データの不要部分を推定することができる。
(7-4) Other Estimation Methods Unnecessary portions of the cross-sectional curve data may be estimated by combining two or more estimation methods among the above estimation methods. Thereby, the unnecessary part of cross-sectional curve data can be estimated more reliably.

また、断面曲線データの不要部分の推定は、使用者の目視により行われてもよい。この場合、図5の表示部400の画像表示領域410には、断面曲線データに基づく観察対象物Sの断面曲線、超深度線状データに基づく観察対象物Sの超深度線、またはカメラ画像データに基づく観察対象物Sのカメラ画像が表示される。   In addition, the estimation of unnecessary portions of the cross-sectional curve data may be performed by visual observation by the user. In this case, in the image display area 410 of the display unit 400 of FIG. 5, the cross-sectional curve of the observation target S based on the cross-section curve data, the super-depth line of the observation target S based on the super-depth linear data, or camera image data The camera image of the observation object S based on is displayed.

使用者は、マウス等のポインティングデバイスを用いて、画像表示領域410に表示される断面曲線、超深度線またはカメラ画像上の不要部分を指示することができる。CPU210は、使用者の指示に基づいて、断面曲線、超深度線またはカメラ画像上の不要部分に対応する断面曲線データの部分を不要部分と推定することができる。   The user can use a pointing device such as a mouse to designate a cross-sectional curve, a super-depth line, or an unnecessary portion on the camera image displayed in the image display area 410. Based on the user's instruction, the CPU 210 can estimate the section curve data portion corresponding to the section curve, the ultra-deep line, or the unnecessary section on the camera image as the unnecessary section.

断面曲線データの不要部分の推定が使用者の目視により行われることにより、低い反射率を有する観察対象物Sまたは大きな凹凸もしくは大きな傾斜を含む観察対象物Sについても、適切に断面曲線データの不要部分を推定することができる。   By estimating the unnecessary portion of the cross-section curve data by the user's visual observation, the cross-section curve data is appropriately not required for the observation target S having a low reflectance or the observation target S having large unevenness or large inclination. The part can be estimated.

(8)解析結果の表示
図9のステップS15において、CPU210は、生成された断面曲線データに基づく断面曲線、算出された粗さ曲線データに基づく粗さ曲線および算出されたうねり曲線データに基づくうねり曲線ならびに算出された表面性状パラメータ等を含む解析結果を表示部400に表示させる。これにより、使用者は観察対象物Sの表面の断面曲線等を視覚的に認識することができる。
(8) Display of analysis result In step S15 of FIG. 9, the CPU 210 generates a cross section curve based on the generated cross section curve data, a roughness curve based on the calculated roughness curve data, and a swell based on the calculated undulation curve data. An analysis result including the curve and the calculated surface property parameter is displayed on the display unit 400. Thereby, the user can visually recognize the cross-sectional curve and the like of the surface of the observation object S.

図17は、解析結果表示時における表示部400の表示例を示す図である。図17に示すように、表示部400の画面上には、画像表示領域410および解析結果表示領域430が表示される。画像表示領域410には、連結された超深度線状データに基づく超深度線状画像が表示される。また、超深度線状画像上には、図8のステップS2〜S4で設定された複数の測定ラインが表示される。   FIG. 17 is a diagram illustrating a display example of the display unit 400 when the analysis result is displayed. As shown in FIG. 17, an image display area 410 and an analysis result display area 430 are displayed on the screen of the display unit 400. In the image display area 410, an ultra-deep linear image based on the connected ultra-deep linear data is displayed. In addition, a plurality of measurement lines set in steps S2 to S4 in FIG. 8 are displayed on the ultradeep linear image.

解析結果表示領域430には、断面曲線表示部431、輪郭曲線表示部432、パラメータ表示部434およびパラメータ設定部433が表示される。使用者が画像表示領域410に表示される超深度線状画像上の複数の測定ラインの1つを指定することにより、断面曲線表示部431には、使用者により指定された複数の測定ラインの1つに対応する断面曲線が表示される。   In the analysis result display area 430, a sectional curve display unit 431, a contour curve display unit 432, a parameter display unit 434, and a parameter setting unit 433 are displayed. When the user designates one of a plurality of measurement lines on the ultra-deep linear image displayed in the image display area 410, the cross-section curve display unit 431 displays a plurality of measurement lines designated by the user. A cross-sectional curve corresponding to one is displayed.

輪郭曲線表示部432には、断面曲線表示部431に表示される断面曲線に対応する粗さ曲線が表示される。輪郭曲線表示部432には、使用者の選択によりうねり曲線を表示することもできる。使用者は、パラメータ設定部433を操作することにより、粗さ曲線とうねり曲線とを識別するカットオフ波長λc、粗さ曲線の下限波長λsおよびうねり曲線の上限波長λfを設定することができる。   The contour curve display unit 432 displays a roughness curve corresponding to the cross-sectional curve displayed on the cross-sectional curve display unit 431. The contour curve display unit 432 can also display a waviness curve according to the user's selection. By operating the parameter setting unit 433, the user can set the cutoff wavelength λc for identifying the roughness curve and the undulation curve, the lower limit wavelength λs of the roughness curve, and the upper limit wavelength λf of the undulation curve.

パラメータ表示部434には、複数の測定ラインの各々について算出された表面性状パラメータが表示される。表面性状パラメータは、最大山高さRp、最大谷深さRv、最大高さRz、平均高さRcおよび算術平均粗さRa等の種々のパラメータを含む。また、パラメータ表示部434には、複数の測定ラインについて算出された表面性状パラメータの平均値、最大値、最小値、最大値と最小値との差、標準偏差(σ)および3倍された標準偏差(3σ)が表示される。複数の測定ラインについて算出された表面性状パラメータの平均値を算出することにより、図9のステップS13において、観察対象物Sに塵埃等が付着している断面曲線データの不要部分が除去されない場合でも、算出される表面性状パラメータの信頼性を向上させることができる。   The parameter display unit 434 displays the surface texture parameters calculated for each of the plurality of measurement lines. The surface texture parameters include various parameters such as maximum peak height Rp, maximum valley depth Rv, maximum height Rz, average height Rc, and arithmetic average roughness Ra. Further, the parameter display unit 434 includes an average value, a maximum value, a minimum value, a difference between the maximum value and the minimum value, a standard deviation (σ), and a tripled standard of the surface texture parameters calculated for a plurality of measurement lines. The deviation (3σ) is displayed. By calculating the average value of the surface property parameters calculated for a plurality of measurement lines, even in the case where an unnecessary portion of the cross-sectional curve data in which dust or the like is attached to the observation object S is not removed in step S13 of FIG. Thus, the reliability of the calculated surface property parameter can be improved.

パラメータ表示部434には、表面性状パラメータの平均値等の他に、複数の測定ラインについて算出された表面性状パラメータの中心値が表示されてもよく、中心値周辺の数個の数値の平均値が表示されてもよい。また、パラメータ表示部434には、平均値からの乖離が大きい数値が除去され、残りの数値の平均値が表示されてもよい。このような処理を行うことにより、図9のステップS13において、観察対象物Sに塵埃等が付着している断面曲線データの不要部分が除去されない場合でも、算出される表面性状パラメータの信頼性を向上させることができる。   In addition to the average value of the surface property parameters, the parameter display unit 434 may display the center value of the surface property parameters calculated for a plurality of measurement lines, and an average value of several numerical values around the center value. May be displayed. Further, the parameter display unit 434 may display a numerical value having a large deviation from the average value and display an average value of the remaining numerical values. By performing such processing, the reliability of the calculated surface property parameter can be improved even when an unnecessary portion of the cross-sectional curve data in which dust or the like is attached to the observation object S is not removed in step S13 of FIG. Can be improved.

(9)効果
本実施の形態に係る共焦点顕微鏡システム500においては、第2の動作モード時に、Y方向において単位領域よりも小さい幅を有する帯状領域内でX方向に平行な複数の測定ラインに光が照射される。そのため、複数の測定ラインに対応する複数の断面曲線データの生成を高速で行うことができる。その結果、複数の断面曲線データに基づいて観察対象物Sの表面の断面曲線を正確でかつ高速に検出することができる。
(9) Effect In the confocal microscope system 500 according to the present embodiment, in the second operation mode, a plurality of measurement lines parallel to the X direction in the strip region having a width smaller than the unit region in the Y direction. Light is irradiated. Therefore, a plurality of cross-sectional curve data corresponding to a plurality of measurement lines can be generated at high speed. As a result, the cross-sectional curve of the surface of the observation object S can be detected accurately and at high speed based on a plurality of cross-sectional curve data.

(10)他の実施の形態
(10−1)上記実施の形態において、PC200のCPU210が制御部300の機能を有していてもよい。この場合、制御部300は設けられなくてもよい。
(10) Other Embodiments (10-1) In the above embodiment, the CPU 210 of the PC 200 may have the function of the control unit 300. In this case, the control unit 300 may not be provided.

(10−2)上記実施の形態において、レーザ光の走査方向とステージ60の実際の移動方向と一致する場合には、共焦点顕微鏡システム500は、ステージ60の傾き補正量算出処理を実現する機能を有さなくてもよい。   (10-2) In the above embodiment, when the scanning direction of the laser light coincides with the actual movement direction of the stage 60, the confocal microscope system 500 realizes the tilt correction amount calculation processing of the stage 60. It is not necessary to have.

(10−3)上記実施の形態において、X−Yスキャン光学系20が制御されることによりレーザ光が観察対象物S上でX方向およびY方向に走査されるが、これに限定されない。ステージ60が移動されることによりレーザ光が観察対象物S上でX’方向およびY’方向に走査されてもよい。この場合、共焦点顕微鏡システム500は、ステージ60の傾き補正量算出処理を実現する機能を有さなくてもよい。   (10-3) In the above embodiment, the laser beam is scanned on the observation object S in the X direction and the Y direction by controlling the XY scan optical system 20, but the present invention is not limited to this. The laser beam may be scanned on the observation object S in the X ′ direction and the Y ′ direction by moving the stage 60. In this case, the confocal microscope system 500 may not have a function for realizing the tilt correction amount calculation processing of the stage 60.

また、レーザ光としてライン光(例えばX方向に延びる細長い光)が用いられてもよい。この場合、X−Yスキャン光学系20に代えてX方向への走査を行わないYスキャン光学系が用いられる。また、受光素子30に代えて、X方向に対応する方向に配列された複数の受光素子からなるラインCCDカメラ等が用いられる。   Further, line light (for example, elongated light extending in the X direction) may be used as the laser light. In this case, instead of the XY scan optical system 20, a Y scan optical system that does not perform scanning in the X direction is used. Further, instead of the light receiving element 30, a line CCD camera or the like including a plurality of light receiving elements arranged in a direction corresponding to the X direction is used.

なお、ラインCCDカメラの各受光素子のY方向に対応する方向の受光面のサイズは一般的に数10μmである。この場合、ラインCCDカメラの受光面をレンズ2が焦点位置に配置される。観察対象物Sの表面が対物レンズ3の焦点位置にあるときに、観察対象物Sにより反射されたライン光がラインCCDカメラの受光面に集光される。それにより、観察対象物Sにより反射されたライン光の大部分がラインCCDカメラの受光面に入射する。   The size of the light receiving surface in the direction corresponding to the Y direction of each light receiving element of the line CCD camera is generally several tens of μm. In this case, the lens 2 is arranged at the focal position on the light receiving surface of the line CCD camera. When the surface of the observation object S is at the focal position of the objective lens 3, the line light reflected by the observation object S is collected on the light receiving surface of the line CCD camera. Thereby, most of the line light reflected by the observation object S enters the light receiving surface of the line CCD camera.

一方、観察対象物Sが対物レンズ3の焦点位置が外れた位置にあるときには、観察対象物Sにより反射されたライン光はラインCCDカメラの受光面の前または後の位置に集光される。それにより、観察対象物Sにより反射されたライン光の一部のみがラインCCDカメラの受光面に入射する。したがって、ラインCCDカメラの前にピンホール部材7を配置することが不要となる。   On the other hand, when the observation object S is at a position out of the focal position of the objective lens 3, the line light reflected by the observation object S is condensed at a position before or after the light receiving surface of the line CCD camera. Thereby, only part of the line light reflected by the observation object S enters the light receiving surface of the line CCD camera. Therefore, it is not necessary to arrange the pinhole member 7 in front of the line CCD camera.

(10−4)上記実施の形態において、対物レンズ3がZ方向に移動されることにより対物レンズ3に対する観察対象物Sの相対的なZ方向の位置が変化されるが、これに限定されない。ステージ60がZ方向に移動されることにより対物レンズ3に対する観察対象物Sの相対的なZ方向の位置が変化されてもよい。   (10-4) In the above embodiment, the relative position of the observation object S with respect to the objective lens 3 in the Z direction is changed by moving the objective lens 3 in the Z direction, but the present invention is not limited to this. The relative position of the observation object S with respect to the objective lens 3 in the Z direction may be changed by moving the stage 60 in the Z direction.

(10−5)上記実施の形態において、観察対象物Sに塵埃等が付着している断面曲線データの部分が不要部分として除去されるが、これに限定されない。算出される表面性状パラメータの信頼性が高い場合には、観察対象物Sに塵埃等が付着している断面曲線データの部分が不要部分として除去されなくてもよい。この場合、図9のステップS13の処理は省略される。   (10-5) In the above embodiment, the portion of the cross-sectional curve data in which dust or the like is attached to the observation object S is removed as an unnecessary portion, but the present invention is not limited to this. When the reliability of the calculated surface property parameter is high, the portion of the cross-sectional curve data in which dust or the like is attached to the observation object S may not be removed as an unnecessary portion. In this case, the process of step S13 in FIG. 9 is omitted.

(11)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(11) Correspondence between each component of claim and each part of embodiment The following describes an example of a correspondence between each component of the claim and each part of the embodiment. It is not limited.

観察対象物Sが観察対象物の例であり、共焦点顕微鏡システム500が共焦点顕微鏡システムの例であり、受光素子30が受光素子の例であり、レンズ1,2、対物レンズ3、ピンホール部材7およびレーザ光源10が共焦点光学系の例である。X方向が第1の方向の例であり、Y方向が第2の方向の例であり、Z方向が第3の方向の例であり、X’方向が第4の方向の例であり、Y’方向が第5の方向の例であり、レンズ駆動部63が相対的距離変化部の例である。制御部300が制御部の例であり、PC200がデータ生成部、取得範囲指示受付部、取得範囲設定部、データ処理部および処理装置の例である。カラーCCDカメラ50、制御部300およびPC200が画像取得部の例であり、画像表示領域410が第1の表示部の例であり、断面曲線表示部431、輪郭曲線表示部432およびパラメータ表示部434が第2の表示部の例であり、ステージ60が支持部の例である。   The observation object S is an example of the observation object, the confocal microscope system 500 is an example of the confocal microscope system, the light receiving element 30 is an example of the light receiving element, the lenses 1, 2, the objective lens 3, and the pinhole. The member 7 and the laser light source 10 are examples of confocal optical systems. The X direction is an example of the first direction, the Y direction is an example of the second direction, the Z direction is an example of the third direction, the X ′ direction is an example of the fourth direction, and Y The 'direction is an example of the fifth direction, and the lens driving unit 63 is an example of a relative distance changing unit. The control unit 300 is an example of a control unit, and the PC 200 is an example of a data generation unit, an acquisition range instruction reception unit, an acquisition range setting unit, a data processing unit, and a processing device. The color CCD camera 50, the control unit 300, and the PC 200 are examples of an image acquisition unit, the image display area 410 is an example of a first display unit, a cross-sectional curve display unit 431, a contour curve display unit 432, and a parameter display unit 434. Is an example of the second display section, and the stage 60 is an example of the support section.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、種々の共焦点顕微鏡システム、画像処理方法および画像処理プログラムに有効に利用することができる。   The present invention can be effectively used for various confocal microscope systems, image processing methods, and image processing programs.

1,2 レンズ
3 対物レンズ
4〜6 ハーフミラー
7 ピンホール部材
8 NDフィルタ
10 レーザ光源
20 X−Yスキャン光学系
30 受光素子
40 照明用白色光源
50 カラーCCDカメラ
60 ステージ
61 ステージ操作部
62 ステージ駆動部
63 レンズ駆動部
100 測定部
200 PC
210 CPU
220 ROM
230 作業用メモリ
240 記憶装置
300 制御部
400 表示部
410 画像表示領域
420 条件設定領域
421 測定点設定部
421a 始点設定ボタン
422 測定長さ設定部
422a 評価長さ指定部
422b 連結数表示部
423 測定高さ設定部
423a 上限設定部
423b 下限設定部
424 測定開始指示部
424a 測定開始ボタン
425 次へボタン
426 キャンセルボタン
427 終了ボタン
428 戻るボタン
430 解析結果表示領域
431 断面曲線表示部
432 輪郭曲線表示部
433 パラメータ設定部
434 パラメータ表示部
500 共焦点顕微鏡システム
A,B 矢印
C チャート
EP1,EP2 終点
F 特徴点
LX,LY,Lx,Ly 距離
R 特徴点指定枠
S 観察対象物
SP1,SP2 始点
SL1,SL2 測定ライン
s1〜s4 単位領域
DESCRIPTION OF SYMBOLS 1, 2 Lens 3 Objective lens 4-6 Half mirror 7 Pinhole member 8 ND filter 10 Laser light source 20 XY scan optical system 30 Light receiving element 40 White light source for illumination 50 Color CCD camera 60 Stage 61 Stage operation part 62 Stage drive Unit 63 Lens drive unit 100 Measurement unit 200 PC
210 CPU
220 ROM
230 Working Memory 240 Storage Device 300 Control Unit 400 Display Unit 410 Image Display Area 420 Condition Setting Area 421 Measurement Point Setting Unit 421a Start Point Setting Button 422 Measurement Length Setting Unit 422a Evaluation Length Designating Unit 422b Connection Number Display Unit 423 Measurement Height Length setting section 423a Upper limit setting section 423b Lower limit setting section 424 Measurement start instruction section 424a Measurement start button 425 Next button 426 Cancel button 427 End button 428 Return button 430 Analysis result display area 431 Section curve display section 432 Contour curve display section 433 Parameters Setting unit 434 Parameter display unit 500 Confocal microscope system A, B Arrow C Chart EP1, EP2 End point F Feature point LX, LY, Lx, Ly Distance R Feature point designation frame S Observation object SP1, SP2 Start point SL1, S 2 measurement line s1~s4 unit area

Claims (7)

観察対象物の表面を観察するための共焦点顕微鏡システムであって、
受光素子と、
観察対象物の表面に設定された単位領域内で第1の方向に平行な測定ラインに光を照射するとともに測定ラインに照射された光を前記受光素子に導き、光の照射位置を前記第1の方向に直交する第2の方向に一定間隔ずつ順次移動させることにより、前記第2の方向に並ぶ複数の測定ラインに光を照射可能に構成された共焦点光学系と、
前記第1および第2の方向に直交する第3の方向における複数の位置で前記共焦点光学系による光の照射が行われるように前記共焦点光学系と観察対象物との相対的な距離を変化させる相対距離変化部と、
第1の動作モードおよび第2の動作モードの制御を選択的に実行可能に構成され、前記第1の動作モード時に、前記単位領域の前記第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように前記共焦点光学系を制御し、前記第2の動作モード時に、前記第2の方向において前記単位領域よりも小さい幅を有する帯状領域の前記第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように前記共焦点光学系を制御するとともに前記相対距離変化部を制御し、前記受光素子の出力信号に基づいて各測定ラインについての複数の画素データを順次取得する制御部と、
前記第2の動作モード時に、前記制御部により取得された複数の画素データに基づいて前記帯状領域内の各測定ラインについて観察対象物の表面の断面曲線を表す断面曲線データを生成するデータ生成部と、
使用者による観察対象物の断面曲線データの取得範囲の指示を受け付ける取得範囲指示受付部と、
前記取得範囲指示受付部により受け付けられた指示に基づいて観察対象物の断面曲線データの生成範囲として前記第1の方向に沿って連続的に並ぶ複数の帯状領域内に複数の測定ラインを設定する取得範囲設定部と、
前記取得範囲設定部により設定された複数の測定ラインについて前記データ生成部により生成された断面曲線データを前記第1の方向に沿って連続する測定ラインごとに連結することにより、連結された複数の断面曲線データを得るデータ処理部とを備えることを特徴とする共焦点顕微鏡システム。
A confocal microscope system for observing the surface of an observation object,
A light receiving element;
In the unit region set on the surface of the observation object, light is irradiated to the measurement line parallel to the first direction, the light irradiated to the measurement line is guided to the light receiving element, and the light irradiation position is set to the first light source. A confocal optical system configured to be able to irradiate light to a plurality of measurement lines arranged in the second direction by sequentially moving in a second direction orthogonal to the direction of
The relative distance between the confocal optical system and the observation object is set so that light is emitted from the confocal optical system at a plurality of positions in a third direction orthogonal to the first and second directions. A relative distance changing portion to be changed;
A plurality of control units that are configured to selectively execute control of the first operation mode and the second operation mode, and are arranged from one end to the other end of the unit region in the second direction in the first operation mode. The confocal optical system is controlled so that light is irradiated to the measurement line, and the second region of the band-shaped region having a width smaller than the unit region in the second direction in the second operation mode. The confocal optical system is controlled so that light is irradiated to a plurality of measurement lines arranged from one end to the other end in the direction, and the relative distance changing unit is controlled, and each based on the output signal of the light receiving element A controller that sequentially acquires a plurality of pixel data for the measurement line;
A data generation unit that generates cross-sectional curve data representing a cross-sectional curve of the surface of the observation object for each measurement line in the band-like region based on a plurality of pixel data acquired by the control unit in the second operation mode When,
An acquisition range instruction receiving unit that receives an instruction of an acquisition range of cross-sectional curve data of an observation object by a user;
Based on an instruction received by the acquisition range instruction receiving unit, a plurality of measurement lines are set in a plurality of band-like regions continuously arranged along the first direction as a generation range of cross-sectional curve data of the observation object. An acquisition range setting section;
By connecting the cross-section curve data generated by the data generation unit for the plurality of measurement lines set by the acquisition range setting unit for each measurement line continuous along the first direction, a plurality of connected A confocal microscope system comprising a data processing unit for obtaining cross-sectional curve data.
観察対象物の表面の画像を取得する画像取得部と、
前記画像取得部により取得された画像を表示する第1の表示部とをさらに備え、
前記取得範囲指示受付部は、前記第1の表示部に表示された画像上で使用者による観測対象物の断面曲線データの取得範囲の指示を受け付けることを特徴とする請求項1記載の共焦点顕微鏡システム。
An image acquisition unit for acquiring an image of the surface of the observation object;
A first display unit that displays the image acquired by the image acquisition unit,
The confocal point according to claim 1, wherein the acquisition range instruction receiving unit receives an instruction of an acquisition range of cross-sectional curve data of an observation object by a user on an image displayed on the first display unit. Microscope system.
前記データ処理部は、前記連結された断面曲線データを得る前または後に各断面曲線データから不要部分を除去し、前記連結された各断面曲線データに基づいて観察対象物の表面性状を表す表面性状パラメータを前記第1の方向に沿って連続する測定ラインごとに算出し、
前記データ処理部により連結された各断面曲線データに基づいて前記第1の方向に沿って連続する測定ライン上での断面曲線を表示する第2の表示部をさらに備えることを特徴とする請求項1または2記載の共焦点顕微鏡システム。
The data processing unit removes an unnecessary portion from each cross-section curve data before or after obtaining the connected cross-section curve data, and expresses the surface property of the observation object based on each connected cross-section curve data A parameter is calculated for each continuous measurement line along the first direction;
The apparatus further comprises a second display unit that displays a cross-sectional curve on a measurement line continuous along the first direction based on each cross-sectional curve data connected by the data processing unit. 3. The confocal microscope system according to 1 or 2.
観察対象物を支持するとともに第4および第5の方向に移動可能に設けられた支持部をさらに備え、
前記制御部は、
前記第4および第5の方向がそれぞれ前記第1および第2の方向に一致する場合に、各帯状領域についての前記共焦点光学系による光の照射の終了ごとに、前記支持部を前記第4の方向に移動させ、
前記第4および第5の方向がそれぞれ前記第1および第2の方向と異なる場合に、各帯状領域についての前記共焦点光学系による光の照射の終了ごとに、当該帯状領域内の複数の測定ラインの終点と次の帯状領域内の複数の測定ラインの始点とが連続するように前記支持部を前記第4および第5の方向に移動させることを特徴とする請求項1〜3のいずれかに記載の共焦点顕微鏡システム。
A support unit that supports the object to be observed and is movable in the fourth and fifth directions;
The controller is
When the fourth and fifth directions coincide with the first and second directions, respectively, the support portion is moved to the fourth portion at each end of light irradiation by the confocal optical system for each band-like region. Move in the direction of
When the fourth and fifth directions are different from the first and second directions, respectively, a plurality of measurements in the band-like region at each end of light irradiation by the confocal optical system for each band-like region. The said support part is moved to the said 4th and 5th direction so that the end point of a line and the start point of the some measurement line in the following strip | belt-shaped area | region may continue. The confocal microscope system described in 1.
前記データ処理部は、隣接する帯状領域の複数の測定ラインについての断面曲線データを2次元パターンマッチングにより連結することを特徴とする請求項1〜4のいずれかに記載の共焦点顕微鏡システム。 The confocal microscope system according to any one of claims 1 to 4, wherein the data processing unit connects cross-sectional curve data for a plurality of measurement lines in adjacent strip regions by two-dimensional pattern matching. 観察対象物の表面を観察するための画像処理方法であって、
共焦点光学系により観察対象物の表面に設定された単位領域内で第1の方向に平行な測定ラインに光を照射するとともに測定ラインに照射された光を受光素子に導き、光の照射位置を前記第1の方向に直交する第2の方向に一定間隔ずつ順次移動させることにより、前記第2の方向に並ぶ複数の測定ラインに光を照射するステップと、
前記第1および第2の方向に直交する第3の方向における複数の位置で前記共焦点光学系による光の照射が行われるように前記共焦点光学系と観察対象物との相対的な距離を変化させるステップと、
第1の動作モード時に、前記単位領域の前記第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように前記共焦点光学系を制御するステップと、
第2の動作モード時に、前記第2の方向において前記単位領域よりも小さい幅を有する帯状領域の前記第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように前記共焦点光学系を制御するステップと、
前記受光素子の出力信号に基づいて各測定ラインについての複数の画素データを順次取得するステップと、
前記第2の動作モード時に、取得された複数の画素データに基づいて前記帯状領域内の各測定ラインについて観察対象物の表面の断面曲線を表す断面曲線データを生成するステップと、
使用者による観察対象物の断面曲線データの取得範囲の指示を受け付けるステップと、
受け付けられた指示に基づいて観察対象物の断面曲線データの取得範囲として前記第1の方向に沿って連続的に並ぶ複数の帯状領域内に複数の測定ラインを設定するステップと、
設定された複数の測定ラインについて生成された断面曲線データを前記第1の方向に沿って連続する測定ラインごとに連結することにより、連結された複数の断面曲線データを得るステップとを含むことを特徴とする画像処理方法。
An image processing method for observing the surface of an observation object,
Irradiates light to the measurement line parallel to the first direction within the unit area set on the surface of the observation object by the confocal optical system, guides the light irradiated to the measurement line to the light receiving element, and irradiates the light. Irradiating light to a plurality of measurement lines arranged in the second direction by sequentially moving a predetermined interval in a second direction orthogonal to the first direction;
The relative distance between the confocal optical system and the observation object is set so that light is emitted from the confocal optical system at a plurality of positions in a third direction orthogonal to the first and second directions. Changing steps,
Controlling the confocal optical system so that light is irradiated to a plurality of measurement lines arranged from one end to the other end in the second direction of the unit region in the first operation mode;
In the second operation mode, light is irradiated to a plurality of measurement lines arranged from one end to the other end in the second direction of the band-like region having a width smaller than the unit region in the second direction. Controlling the confocal optical system;
Sequentially obtaining a plurality of pixel data for each measurement line based on an output signal of the light receiving element;
Generating, in the second operation mode, cross-sectional curve data representing a cross-sectional curve of the surface of the observation object for each measurement line in the band-shaped region based on the acquired plurality of pixel data;
Receiving an instruction of an acquisition range of cross-sectional curve data of an observation object by a user;
Setting a plurality of measurement lines in a plurality of strip-like regions continuously arranged along the first direction as an acquisition range of the cross-sectional curve data of the observation object based on the received instruction;
Obtaining a plurality of connected cross-sectional curve data by connecting the cross-sectional curve data generated for a plurality of set measurement lines for each measurement line continuous along the first direction. A featured image processing method.
観察対象物の表面を観察するための画像処理を処理装置に実行させる画像処理プログラムであって、
共焦点光学系により観察対象物の表面に設定された単位領域内で第1の方向に平行な測定ラインに光を照射するとともに測定ラインに照射された光を受光素子に導き、光の照射位置を前記第1の方向に直交する第2の方向に一定間隔ずつ順次移動させることにより、前記第2の方向に並ぶ複数の測定ラインに光を照射する処理と、
前記第1および第2の方向に直交する第3の方向における複数の位置で前記共焦点光学系による光の照射が行われるように前記共焦点光学系と観察対象物との相対的な距離を変化させる処理と、
第1の動作モード時に、前記単位領域の前記第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように前記共焦点光学系を制御する処理と、
第2の動作モード時に、前記第2の方向において前記単位領域よりも小さい幅を有する帯状領域の前記第2の方向における一端から他端に渡って並ぶ複数の測定ラインに光が照射されるように前記共焦点光学系を制御する処理と、
前記受光素子の出力信号に基づいて各測定ラインについての複数の画素データを順次取得する処理と、
前記第2の動作モード時に、取得された複数の画素データに基づいて前記帯状領域内の各測定ラインについて観察対象物の表面の断面曲線を表す断面曲線データを生成する処理と、
使用者による観察対象物の断面曲線データの取得範囲の指示を受け付ける処理と、
受け付けられた指示に基づいて観察対象物の断面曲線データの取得範囲として前記第1の方向に沿って連続的に並ぶ複数の帯状領域内に複数の測定ラインを設定する処理と、
設定された複数の測定ラインについて生成された断面曲線データを前記第1の方向に沿って連続する測定ラインごとに連結することにより、連結された複数の断面曲線データを得る処理とを、
前記処理装置に実行させることを特徴とする画像処理プログラム。
An image processing program for causing a processing device to execute image processing for observing the surface of an observation object,
Irradiates light to the measurement line parallel to the first direction within the unit area set on the surface of the observation object by the confocal optical system, guides the light irradiated to the measurement line to the light receiving element, and irradiates the light. Irradiating a plurality of measurement lines arranged in the second direction with light by sequentially moving them in a second direction orthogonal to the first direction by a predetermined interval;
The relative distance between the confocal optical system and the observation object is set so that light is emitted from the confocal optical system at a plurality of positions in a third direction orthogonal to the first and second directions. Process to change,
A process of controlling the confocal optical system so that light is irradiated to a plurality of measurement lines arranged from one end to the other end in the second direction of the unit region in the first operation mode;
In the second operation mode, light is irradiated to a plurality of measurement lines arranged from one end to the other end in the second direction of the band-like region having a width smaller than the unit region in the second direction. A process for controlling the confocal optical system;
A process of sequentially obtaining a plurality of pixel data for each measurement line based on the output signal of the light receiving element;
A process of generating cross-sectional curve data representing a cross-sectional curve of the surface of the observation object for each measurement line in the band-shaped region based on a plurality of acquired pixel data during the second operation mode;
A process of accepting an instruction of an acquisition range of cross-sectional curve data of the observation object by the user;
A process of setting a plurality of measurement lines in a plurality of band-like regions continuously arranged along the first direction as an acquisition range of the cross-sectional curve data of the observation object based on the received instruction;
Processing for obtaining a plurality of connected cross-section curve data by connecting the cross-section curve data generated for the set plurality of measurement lines for each measurement line continuous along the first direction,
An image processing program that is executed by the processing apparatus.
JP2011012031A 2011-01-24 2011-01-24 Confocal microscope system, image processing method and image processing program Active JP5700797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011012031A JP5700797B2 (en) 2011-01-24 2011-01-24 Confocal microscope system, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011012031A JP5700797B2 (en) 2011-01-24 2011-01-24 Confocal microscope system, image processing method and image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015008888A Division JP6009005B2 (en) 2015-01-20 2015-01-20 Confocal microscope system, image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2012155009A true JP2012155009A (en) 2012-08-16
JP5700797B2 JP5700797B2 (en) 2015-04-15

Family

ID=46836822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011012031A Active JP5700797B2 (en) 2011-01-24 2011-01-24 Confocal microscope system, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP5700797B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016136091A (en) * 2015-01-23 2016-07-28 株式会社東京精密 Shape measuring apparatus
CN108317975A (en) * 2018-01-30 2018-07-24 广州肖宁道路工程技术研究事务所有限公司 Pavement skid resistance texture test device and its sweep mechanism
JP2020507813A (en) * 2017-02-10 2020-03-12 ナノトロニクス イメージング インコーポレイテッドNanotronics Imaging,Inc. Camera and specimen alignment to facilitate large area imaging in microscopy

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04263920A (en) * 1991-02-18 1992-09-18 Diafoil Co Ltd Biaxially oriented polyester film
JP2003307681A (en) * 2002-04-17 2003-10-31 Olympus Optical Co Ltd Confocal scanning optical microscope
JP2007139884A (en) * 2005-11-15 2007-06-07 Olympus Corp Confocal scanning microscope
JP2008191427A (en) * 2007-02-05 2008-08-21 Olympus Corp Virtual slide forming apparatus, virtual slide forming method, and virtual slide forming program
JP2009128167A (en) * 2007-11-22 2009-06-11 Olympus Corp Optical three-dimensional measurement device and filter process method
JP2009145774A (en) * 2007-12-17 2009-07-02 Olympus Corp Laser scanning microscope apparatus, and surface shape measuring method thereof
JP2009216820A (en) * 2008-03-07 2009-09-24 Fuji Xerox Co Ltd Electrophotographic coated paper

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04263920A (en) * 1991-02-18 1992-09-18 Diafoil Co Ltd Biaxially oriented polyester film
JP2003307681A (en) * 2002-04-17 2003-10-31 Olympus Optical Co Ltd Confocal scanning optical microscope
JP2007139884A (en) * 2005-11-15 2007-06-07 Olympus Corp Confocal scanning microscope
JP2008191427A (en) * 2007-02-05 2008-08-21 Olympus Corp Virtual slide forming apparatus, virtual slide forming method, and virtual slide forming program
JP2009128167A (en) * 2007-11-22 2009-06-11 Olympus Corp Optical three-dimensional measurement device and filter process method
JP2009145774A (en) * 2007-12-17 2009-07-02 Olympus Corp Laser scanning microscope apparatus, and surface shape measuring method thereof
JP2009216820A (en) * 2008-03-07 2009-09-24 Fuji Xerox Co Ltd Electrophotographic coated paper

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016136091A (en) * 2015-01-23 2016-07-28 株式会社東京精密 Shape measuring apparatus
JP2020507813A (en) * 2017-02-10 2020-03-12 ナノトロニクス イメージング インコーポレイテッドNanotronics Imaging,Inc. Camera and specimen alignment to facilitate large area imaging in microscopy
JP7029821B2 (en) 2017-02-10 2022-03-04 ナノトロニクス イメージング インコーポレイテッド Alignment of camera and specimen to facilitate large area imaging in microscopy
JP2022062236A (en) * 2017-02-10 2022-04-19 ナノトロニクス イメージング インコーポレイテッド Camera and specimen alignment to facilitate large area imaging in microscopy
JP7428406B2 (en) 2017-02-10 2024-02-06 ナノトロニクス イメージング インコーポレイテッド Camera and specimen alignment to facilitate large area imaging in microscopy
CN108317975A (en) * 2018-01-30 2018-07-24 广州肖宁道路工程技术研究事务所有限公司 Pavement skid resistance texture test device and its sweep mechanism
CN108317975B (en) * 2018-01-30 2024-04-09 广州肖宁道路工程技术研究事务所有限公司 Road surface antiskid texture testing device and scanning mechanism thereof

Also Published As

Publication number Publication date
JP5700797B2 (en) 2015-04-15

Similar Documents

Publication Publication Date Title
JP6239232B2 (en) High performance edge focus tool
JP6009005B2 (en) Confocal microscope system, image processing method and image processing program
JP5972563B2 (en) Edge detection using structured illumination
JP6101706B2 (en) Focusing operation using multiple lighting settings in machine vision system
JP5878328B2 (en) Precision solder resist registration inspection method
JP5732265B2 (en) Microscope system, focus position detection method, and focus position detection program
JP2012155010A (en) Microscope system, surface state observation method, and surface state observation program
JP5419837B2 (en) Inspection apparatus, inspection method and program
KR20190093618A (en) Method and apparatus for determining defect quality
JP2007327836A (en) Appearance inspection apparatus and method
JP6025411B2 (en) Shape measuring apparatus and shape measuring method
JP5403458B2 (en) Surface shape measuring method and surface shape measuring apparatus
JP5700797B2 (en) Confocal microscope system, image processing method and image processing program
JP5663428B2 (en) Microscope system, object observation method, and object observation program
JP4725967B2 (en) Minute height measuring device and displacement meter unit
JP2016099213A (en) Three-dimensional shape measurement device
JP2014001966A (en) Shape measuring apparatus and shape measuring method
JP7430597B2 (en) white interference microscope
JP6140025B2 (en) Optical surface shape detection system, surface shape detection method, and surface shape detection program
JP5847282B2 (en) Confocal microscope system
JP2007286147A (en) Infrared microscope
JP6161678B2 (en) Confocal microscope system
JP2012228460A (en) Measuring method
JP2012150335A (en) Confocal microscope system, image processing method and image processing program
JP2015079267A (en) Microscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150216

R150 Certificate of patent or registration of utility model

Ref document number: 5700797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250