JP2020086294A - Magnification observation device - Google Patents
Magnification observation device Download PDFInfo
- Publication number
- JP2020086294A JP2020086294A JP2018223948A JP2018223948A JP2020086294A JP 2020086294 A JP2020086294 A JP 2020086294A JP 2018223948 A JP2018223948 A JP 2018223948A JP 2018223948 A JP2018223948 A JP 2018223948A JP 2020086294 A JP2020086294 A JP 2020086294A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- observation
- illumination
- unevenness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Microscoopes, Condenser (AREA)
Abstract
Description
本発明は拡大観察装置に関する。 The present invention relates to a magnifying observation apparatus.
一般に顕微鏡は観察対象物を精度よく観察するために高い光学性能を有する光学系が求められてきた。また、観察画像をリアルタイムで表示器に表示する顕微鏡が登場し、観察対象物のありのままの姿をいかにして正確かつ詳細に表示できるかについて、顕微鏡メーカーの間で競争されてきた。 In general, a microscope has been required to have an optical system having high optical performance in order to observe an observation object with high accuracy. In addition, a microscope that displays an observation image on a display in real time has appeared, and there has been competition among microscope makers for how to accurately and precisely display the original appearance of an observation target.
一方で、画像処理チップの性能が向上し、顕微鏡にも採用可能となってきた。また、顕微鏡のユーザも生物等の研究者だけでなく、工場で生産された製品の検査(拡大観察)をする検査者に広がってきた。そのため、従来の光学性能追求志向とは異なる志向の顕微鏡の市場ニーズが生まれた。これは従来の顕微鏡と区別して、拡大観察装置と呼ばれることもある(特許文献1)。 On the other hand, the performance of the image processing chip has improved, and it has become possible to adopt it in a microscope. Further, the users of the microscope have spread not only to researchers such as living things but also to inspectors who inspect (enlarge and observe) the products produced in the factory. As a result, market needs for microscopes that are different from conventional optical performance pursuits have arisen. This is sometimes called a magnifying observation device in distinction from a conventional microscope (Patent Document 1).
ところで、工場で生産された製品の表面の凹凸を拡大観察装置で観察したいというニーズが存在する。特許文献2によれば、凹凸強調画像の作成方法が記載されている。凹凸強調画像の見た目は、通常画像(輝度画像)の見た目と大きく異なる。凹凸強調画像を作成するには、照明方向が異なる複数の輝度画像が必要となるため、通常画像と比較して、画像処理時間が長くなる。凹凸強調画像では微細な凹凸を確認できるため、ユーザは、より高倍率の対物レンズを使用して撮像を行う。したがって、通常画像と凹凸強調画像とでは見た目の変化が大きいため、通常画像と凹凸強調画像との間の微細な違いにユーザは気づきにくい。一般に、所望の観察部位を観察するためには、視野探し、ピント調整、凹凸強調画像の作成、凹凸強調画像の確認、ライブ画像への切り替え、視野探し・・・といった手順をユーザは繰り返さなければならない。高倍率観察時には画像における観察部位のボケが大きくなる(被写界深度が狭い)。高倍率観察時には視野が狭くなるため、観察対象物のどの部位を観察しているかをユーザは把握しにくくなる。そこで、本発明は、観察対象物のライブ画像と凹凸強調画像とを対比しやすいように表示することを目的とする。 By the way, there is a need to observe the unevenness of the surface of a product produced in a factory with a magnifying observation device. According to Patent Document 2, a method of creating a concave-convex emphasized image is described. The appearance of the unevenness-enhanced image is significantly different from that of a normal image (luminance image). In order to create the unevenness-enhanced image, a plurality of brightness images with different illumination directions are required, and therefore the image processing time becomes longer than that of a normal image. Since fine unevenness can be confirmed in the unevenness-enhanced image, the user takes an image by using a higher-magnification objective lens. Therefore, since there is a large change in appearance between the normal image and the embossed image, it is difficult for the user to notice a minute difference between the normal image and the embossed image. Generally, in order to observe a desired observation site, the user has to repeat the procedures such as field-of-view search, focus adjustment, unevenness-enhanced image creation, confirmation of unevenness-enhanced image, switching to live image, field-of-view search... I won't. At the time of high-magnification observation, blurring of the observed part in the image becomes large (the depth of field is narrow). Since the field of view becomes narrow during high-magnification observation, it becomes difficult for the user to grasp which part of the observation target is being observed. Therefore, it is an object of the present invention to display a live image of an observation object and an unevenness-enhanced image so that they can be easily compared with each other.
本発明は、たとえば、
対物レンズと結像レンズとを含む光学系と、
少なくともX方向とY方向とに前記光学系に対して相対的に移動可能なXYステージと、
前記光学系に対する前記XYステージの相対的な移動を検知する検知部と、
前記XYステージに載置された観察対象物に対してそれぞれ異なる方向から照明光を照射する照明部と、
前記光学系を介して前記観察対象物からの光を受光して前記観察対象物の輝度画像を生成する撮像部と、
前記光学系の光軸に沿って前記光学系の合焦位置を変化させる変化部と、
前記照明部、前記撮像部および前記変化部を制御する制御部と、
前記観察対象物の画像である観察画像を表示する表示部と
を有し、
前記制御部は、
前記照明部を制御することで前記観察対象物に対して第一照明方向から前記照明光を前記観察対象物に対して照射し、前記変化部と前記撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで前記観察対象物を撮像することで複数の第一輝度画像を取得し、
前記照明部を制御することで前記観察対象物に対して前記第一照明方向に対して前記光軸を挟んで対称となる第二照明方向から前記照明光を前記観察対象物に対して照射し、前記変化部と前記撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで前記観察対象物を撮像することで複数の第二輝度画像を取得し、
前記複数の第一輝度画像と前記複数の第二輝度画像とについて凹凸強調することで前記観察対象物の表面の凹凸が強調された凹凸強調画像を生成する画像生成部
を有し、
前記表示部は、
前記検知部が前記XYステージの相対的な移動を検知している間は、前記観察画像として、前記撮像部により取得された前記観察対象物の動画像を表示し、
前記検知部が前記XYステージの相対的な移動の停止を検知すると、前記観察画像として、前記XYステージの相対的な移動の停止後に前記画像生成部により生成された前記凹凸強調画像を表示することを特徴とする拡大観察装置を提供する。
The present invention is, for example,
An optical system including an objective lens and an imaging lens,
An XY stage movable relative to the optical system in at least the X and Y directions;
A detection unit for detecting relative movement of the XY stage with respect to the optical system;
An illumination unit that illuminates the observation target placed on the XY stage with illumination light from different directions;
An imaging unit that receives light from the observation object through the optical system and generates a brightness image of the observation object,
A changing unit that changes a focus position of the optical system along the optical axis of the optical system,
A control unit that controls the illumination unit, the imaging unit, and the changing unit;
A display unit for displaying an observation image that is an image of the observation object,
The control unit is
By irradiating the observation object with the illumination light from the first illumination direction by controlling the illumination unit, the changing unit and the image capturing unit are controlled so that a plurality of different combinations are obtained. Obtaining a plurality of first luminance images by imaging the observation object at each of the focal positions,
By irradiating the observation object with the illumination light from a second illumination direction that is symmetric with respect to the first illumination direction with respect to the first illumination direction by controlling the illumination unit. , A plurality of second luminance images are obtained by imaging the observation object at each of a plurality of different focusing positions by controlling the changing unit and the imaging unit,
The plurality of first luminance image and the plurality of second luminance image having an image generating unit that generates a concave-convex emphasized image in which the concave-convex of the surface of the observation object is emphasized by embossing the concave-convex.
The display unit is
While the detection unit is detecting the relative movement of the XY stage, a moving image of the observation object acquired by the imaging unit is displayed as the observation image,
When the detection unit detects that the relative movement of the XY stage is stopped, the unevenness-enhanced image generated by the image generation unit after the relative movement of the XY stage is stopped is displayed as the observation image. And a magnifying observation device.
本発明によれば、観察対象物のライブ画像と凹凸強調画像とが対比しやすいように表示される。 According to the present invention, the live image of the observation target and the unevenness-enhanced image are displayed so that they can be easily compared with each other.
<拡大観察装置>
図1は、拡大観察装置100を示している。拡大観察装置100は、例えば微小物体等の試料や電子部品、被加工物等のワーク(以下、これらを観察対象物という。)を拡大して表示する装置である。使用者は拡大観察装置100を使用して観察対象物の外観を検査したり、寸法計測等を行ったりすることができる。拡大観察装置100は、顕微鏡やデジタルマイクロスコープと呼ばれてもよい。観察対象物は、上述した例に限定されるものではなく、各種物体が観察対象物となりうる。
<Magnification observation device>
FIG. 1 shows a magnifying observation apparatus 100. The magnifying observation device 100 is a device that magnifies and displays a sample such as a minute object, an electronic component, a work such as a workpiece (hereinafter, these are referred to as an observation target). The user can use the magnifying observation device 100 to inspect the external appearance of the observation object and perform dimension measurement and the like. The magnifying observation apparatus 100 may be called a microscope or a digital microscope. The observation object is not limited to the above-mentioned example, and various objects can be the observation object.
観察部1は、ベース部10、スタンド部20、ヘッド部22、載置台30を有している。ベース部10は、観察部1をぐらつくことなく、机等に置いておくための部分であり、観察部1の略下半部を構成している。ベース部10には、載置台30が設けられている。載置台30は、ベース部10の前後方向中央部近傍から前側の部分に支持されており、該ベース部10から上方へ突出している。載置台30は、観察対象物を載置するための部分であり、この実施形態では、電動載置台で構成されている。すなわち、観察対象物を電動載置台の幅方向(X方向)及び奥行き方向(Y方向)の両方向に移動可能に支持することができるとともに、上下方向(Z方向)及びZ軸回りに回動できるようになっている。スタンド部20はベース部10に対して揺動可能となっている。たとえば、スタンド部20は、観察部1を正面から見て右回りおよび左回りに搖動させるこができる。スタンド部20が搖動することで、ヘッド部22も搖動する。スタンド部20およびヘッド部22は、Z軸方向に移動可能に取り付けられている。ヘッド部22は、対物レンズ、結像レンズ、照明装置および撮像素子などを有する。ヘッド部22は、載置台30に載置された観察対象物に照明光を照射し、該照明光の観察対象物からの反射光又は透過光の受光量を検出して観察対象物の画像を生成する。なお、観察部1の構成と機能の詳細は、本件と同一出願人の特願2018−161347に開示されている、その開示の全ては本明細書の一部として援用(incorporation herein by reference)される。 The observation unit 1 includes a base unit 10, a stand unit 20, a head unit 22, and a mounting table 30. The base part 10 is a part for placing the observation part 1 on a desk or the like without wobbling, and constitutes a substantially lower half part of the observation part 1. A mounting table 30 is provided on the base portion 10. The mounting table 30 is supported by a portion on the front side from the vicinity of the central portion of the base portion 10 in the front-rear direction, and projects upward from the base portion 10. The mounting table 30 is a part for mounting an observation target, and is configured by an electric mounting table in this embodiment. That is, the observation object can be supported movably in both the width direction (X direction) and the depth direction (Y direction) of the electric mounting table, and can be rotated in the vertical direction (Z direction) and around the Z axis. It is like this. The stand portion 20 is swingable with respect to the base portion 10. For example, the stand unit 20 can swing the observation unit 1 clockwise and counterclockwise when viewed from the front. When the stand unit 20 swings, the head unit 22 also swings. The stand section 20 and the head section 22 are attached so as to be movable in the Z-axis direction. The head unit 22 has an objective lens, an imaging lens, an illuminating device, an image sensor, and the like. The head unit 22 illuminates the observation target placed on the mounting table 30 with illumination light, detects the amount of reflected light or transmitted light of the illumination light from the observation target, and detects the image of the observation target. To generate. The details of the configuration and function of the observation unit 1 are disclosed in Japanese Patent Application No. 2018-161347 of the same applicant as the present application, the entire disclosure of which is incorporated as a part of this specification (incorporation herein by reference). It
表示部2は、例えば、液晶表示パネルや有機ELパネル等のようなカラー表示可能な表示画面2aを有しており、外部から電力が供給されるようになっている。表示画面2aにタッチ操作パネル(受付部の一例)を組み込むようにしてもよい。また、この実施形態では、表示部2に制御部60を組み込んだ例で説明しているが、これに限らず、制御部60は観察部1に組み込むようにしてもよいし、コンソール部3に組み込むようにしてもよいし、表示部2、観察部1及びコンソール部3とは別体の外部ユニットとしてもよい。表示部2と、観察部1とはケーブル5によって信号の送受が可能に接続されている。観察部1への電力供給は、ケーブル5によって行ってもよいし、図示しない電源ケーブルによって行ってもよい。 The display unit 2 has a display screen 2a capable of color display, such as a liquid crystal display panel or an organic EL panel, and is supplied with electric power from the outside. A touch operation panel (an example of a reception unit) may be incorporated in the display screen 2a. Further, in this embodiment, an example in which the control unit 60 is incorporated in the display unit 2 has been described, but the present invention is not limited to this, and the control unit 60 may be incorporated in the observation unit 1 or the console unit 3. It may be incorporated or may be an external unit separate from the display unit 2, the observation unit 1 and the console unit 3. The display unit 2 and the observation unit 1 are connected by a cable 5 so that signals can be transmitted and received. The power supply to the observation unit 1 may be performed by the cable 5 or a power cable (not shown).
コンソール部3は制御部60に接続されており、一般的なキーボードやマウスとは異なっており、観察部1を操作したり、各種情報の入力や選択操作、画像の選択操作、領域指定、位置指定等を行ったりすることが可能な専用の操作デバイスである。制御部60にはポインティングデバイスとしてマウス4が接続されている。コンソール部3およびマウス4は、拡大観察装置100を操作することができればよいので、例えばタッチパネル式の入力装置、音声入力装置等であってもよい。タッチパネル式の入力装置の場合、表示部2と一体化することができ、表示部2に表示されている表示画面上の任意の位置の検出を可能に構成することができる。コンソール部3およびマウス4は、表示部2に表示された画像上で使用者によって指定された任意の位置の入力を受け付ける受付部である。 The console unit 3 is connected to the control unit 60, and is different from a general keyboard and mouse, and operates the observation unit 1, inputs various information, performs selection operations, selects images, specifies areas, and positions. This is a dedicated operation device that can be used to specify items. The mouse 4 is connected to the control unit 60 as a pointing device. The console unit 3 and the mouse 4 may be, for example, a touch panel type input device, a voice input device, or the like, as long as they can operate the magnifying observation device 100. In the case of a touch panel type input device, it can be integrated with the display unit 2 and can be configured to be able to detect an arbitrary position on the display screen displayed on the display unit 2. The console unit 3 and the mouse 4 are reception units that receive an input at an arbitrary position designated by the user on the image displayed on the display unit 2.
拡大観察装置100には、上述した機器や装置以外にも、操作や制御を行うための装置、プリンタ、その他の各種処理を行うためのコンピュータ、記憶装置、周辺機器等を接続することもできる。この場合の接続は、例えば、IEEE1394、RS−232xやRS−422、USB等のシリアル接続、パラレル接続、あるいは10BASE−T、100BASE−TX、1000BASE−T等のネットワークを介して電気的、あるいは磁気的、光学的に接続する方法等を挙げることができる。また、有線接続以外にも、IEEE802.x等の無線LANやBluetooth(登録商標)等の電波、赤外線、光通信等を利用した無線接続等でもよい。さらにデータの交換や各種設定の保存等を行うための記憶装置に用いる記憶媒体としては、例えば、各種メモリカードや磁気ディスク、光磁気ディスク、半導体メモリ、ハードディスク等を利用することができる。拡大観察装置100は、上記各種ユニットや装置、機器を組み合わせた拡大観察システムということもできる。 In addition to the above-described devices and apparatuses, the magnifying observation apparatus 100 can be connected to devices for operating and controlling, printers, computers for performing various other processes, storage devices, peripheral devices, and the like. The connection in this case is, for example, serial connection such as IEEE 1394, RS-232x, RS-422, or USB, parallel connection, or electrical or magnetic via a network such as 10BASE-T, 100BASE-TX, 1000BASE-T. And optical connection. In addition to wired connection, IEEE802. A wireless connection using radio LAN such as x or radio waves such as Bluetooth (registered trademark), infrared rays, optical communication, or the like may be used. Further, as a storage medium used for a storage device for exchanging data and storing various settings, for example, various memory cards, magnetic disks, magneto-optical disks, semiconductor memories, hard disks, etc. can be used. The magnifying observation device 100 can also be referred to as a magnifying observation system in which the above various units, devices, and devices are combined.
<制御部>
図2が示すように、制御部60は、CPU61や画像プロセッサ66、記憶部67などを有している。CPU61は記憶部67のROM領域に記憶されているプログラムを実行することで様々な機能を実現する。撮像制御部62は、ヘッド部22に設けられたレボルバ21を回転させるためにレボルバ駆動部24を制御する。これにより、対物レンズ23の倍率が変更される。つまり、ある倍率の対物レンズ23から他の倍率の対物レンズ23に切り替わる。撮像制御部62は、対物レンズ23の合焦位置を変更するためにヘッド部22を上下させるZ方向駆動部28を制御する。撮像制御部62は、載置台駆動部29を通じて載置台30をX方向、Y方向、Z方向に移動させたり、載置台30をθ回転させたりする。撮像制御部62は、ヘッド部22に設けられた撮像部25を制御し、撮像部25に観察対象物Wを撮像させ、観察対象物Wの画像を取得する。表示制御部63は観察対象物Wの画像などを表示部2に表示させる。照明制御部64は、ヘッド部22に設けられたリング照明26や同軸落射照明27の点灯と消灯とを制御する。UI部65は、表示制御部63を通じて表示部2にUI(ユーザーインタフェース)を表示したり、コンソール部3やマウス4から入力されるユーザ指示を受け付けたりする。画像プロセッサ66は、撮像部25により取得された画像信号から様々な画像データを作成する。画像プロセッサ66はCPU61により実現されてもよい。記憶部67はROM領域やRAM領域、メモリカードなどを有する。検知部68は、載置台30の静止と移動を検知したり、レボルバ21により対物レンズ23の倍率が変更されたかどうかを検知したりする。コンソール部3は、載置台30をX方向に移動させたり、Y方向に移動させたりすることを指示するためのジョイスティックを有していてもよい。この場合、検知部68は、コンソール部3のジョイスティックがいずれかの方向に倒されていれば載置台30が移動していると検知し、ジョイスティックが中立位置に静止していれば載置台30が静止していると検知する。また、コンソール部3またはマウス4を通じてレボルバ21の回転、つまり、対物レンズ23の倍率変更が指示され、レボルバ駆動部24がレボルバを回転させると、検知部68は、倍率が変更されたと検知する。倍率変更が指示されていなければ、検知部68は、倍率が変更されていないと検知する。検知部68はユーザによるピント位置の手動調整を検知してもよい。
<Control part>
As shown in FIG. 2, the control unit 60 has a CPU 61, an image processor 66, a storage unit 67, and the like. The CPU 61 realizes various functions by executing the programs stored in the ROM area of the storage unit 67. The imaging control unit 62 controls the revolver driving unit 24 to rotate the revolver 21 provided on the head unit 22. As a result, the magnification of the objective lens 23 is changed. That is, the objective lens 23 with a certain magnification is switched to the objective lens 23 with another magnification. The imaging control unit 62 controls the Z-direction drive unit 28 that moves the head unit 22 up and down in order to change the focus position of the objective lens 23. The imaging control unit 62 moves the mounting table 30 in the X direction, the Y direction, and the Z direction through the mounting table driving unit 29, and rotates the mounting table 30 by θ. The imaging control unit 62 controls the imaging unit 25 provided in the head unit 22, causes the imaging unit 25 to image the observation target object W, and acquires an image of the observation target object W. The display control unit 63 causes the display unit 2 to display an image of the observation object W and the like. The illumination control unit 64 controls turning on and off of the ring illumination 26 and the coaxial incident illumination 27 provided on the head unit 22. The UI unit 65 displays a UI (user interface) on the display unit 2 through the display control unit 63 and receives a user instruction input from the console unit 3 or the mouse 4. The image processor 66 creates various image data from the image signal acquired by the imaging unit 25. The image processor 66 may be realized by the CPU 61. The storage unit 67 has a ROM area, a RAM area, a memory card, and the like. The detection unit 68 detects whether the mounting table 30 is stationary or moving, or whether the revolver 21 has changed the magnification of the objective lens 23. The console unit 3 may have a joystick for instructing to move the mounting table 30 in the X direction or the Y direction. In this case, the detection unit 68 detects that the mounting table 30 is moving if the joystick of the console unit 3 is tilted in either direction, and detects that the mounting table 30 is moving if the joystick is stationary at the neutral position. It detects that it is stationary. When the rotation of the revolver 21, that is, the magnification change of the objective lens 23 is instructed through the console unit 3 or the mouse 4 and the revolver drive unit 24 rotates the revolver, the detection unit 68 detects that the magnification has been changed. If the magnification change is not instructed, the detection unit 68 detects that the magnification has not been changed. The detection unit 68 may detect manual adjustment of the focus position by the user.
<画像プロセッサ>
図3が示すように、画像プロセッサ66において、輝度画像生成部31は、撮像制御部62を通じて撮像部25により取得された画像信号から輝度画像を作成する。HDR処理部32は、撮像制御部62を通じて撮像部25を制御することで、それぞれ露光時間が異なる複数のサブ輝度画像を取得し、複数のサブ輝度画像をHDR処理することで輝度画像を生成する。HDRはハイダイナミックレンジの略称である。深度合成部33は、撮像制御部62を通じて撮像部25を制御することで、それぞれ合焦位置の異なる複数のサブ輝度画像を取得し、複数のサブ輝度画像を深度合成することで深度合成画像を生成する。なお、サブ輝度画像はHDR処理された輝度画像であってもよい。凹凸強調部34は、第一照明方向から照明された観察対象物Wの第一輝度画像と、第二照明方向から照明された観察対象物Wの第二輝度画像とを合成することで、観察対象物Wの表面の凹凸が強調された凹凸強調画像を作成する。第一照明方向と第二照明方向は相互に光軸A1を挟んで対称となっている。なお、第一輝度画像と第二輝度画像はそれぞれ深度合成された深度合成画像であってもよい。たとえば、凹凸強調部34は、第一深度合成画像と第二深度合成画像との輝度の差分に基づき凹凸強調画像を生成してもよい。第一深度合成画像における画素(座標x、y)の輝度値i1と、第二深度合成画像における画素(座標x、y)の輝度値i2とから凹凸強調画像における画素(座標x、y)の画素値Ixyは、次式から求められてもよい。
Ixy=(i1−i2)/(i1+i2) ・・・(1)
凹凸強調画像の画素値は、一対の画素値の差分を、一対の画素値を足した合計で割ることで得られる。画素値の差分が正規化されるのであれば、(1)の式とは異なる式が採用されてもよい。
<Image processor>
As shown in FIG. 3, in the image processor 66, the brightness image generation unit 31 creates a brightness image from the image signal acquired by the imaging unit 25 through the imaging control unit 62. The HDR processing unit 32 controls the imaging unit 25 through the imaging control unit 62 to acquire a plurality of sub-luminance images having different exposure times, and performs a HDR process on the plurality of sub-luminance images to generate a luminance image. .. HDR is an abbreviation for high dynamic range. The depth synthesis unit 33 controls the imaging unit 25 through the imaging control unit 62 to acquire a plurality of sub-luminance images having different in-focus positions, and depth-synthesizes the plurality of sub-luminance images to form a depth synthesis image. To generate. The sub-luminance image may be an HDR-processed luminance image. The unevenness emphasizing unit 34 combines the first luminance image of the observation object W illuminated from the first illumination direction and the second luminance image of the observation object W illuminated from the second illumination direction to perform observation. An unevenness-enhanced image in which unevenness on the surface of the object W is emphasized is created. The first illumination direction and the second illumination direction are symmetrical with each other with the optical axis A1 interposed therebetween. The first luminance image and the second luminance image may be depth-combined images that are depth-combined. For example, the unevenness emphasizing unit 34 may generate the unevenness emphasized image based on the difference in brightness between the first depth combined image and the second depth combined image. Based on the brightness value i1 of the pixel (coordinates x, y) in the first depth composite image and the brightness value i2 of the pixel (coordinates x, y) in the second depth composite image, The pixel value Ixy may be obtained from the following equation.
Ixy=(i1-i2)/(i1+i2) (1)
The pixel value of the unevenness-enhanced image is obtained by dividing the difference between the pair of pixel values by the sum of the pair of pixel values. An expression different from the expression (1) may be adopted as long as the difference between the pixel values is normalized.
分子である輝度値i2と輝度値i1との差分は、当該画素に対応する観察対象物Wの局所位置の面の傾き(傾斜)を反映する。観察対象物Wの面の傾きにより凹凸が強調される。 The difference between the luminance value i2 and the luminance value i1 which are the numerator reflects the inclination (inclination) of the surface of the local position of the observation object W corresponding to the pixel. The unevenness is emphasized by the inclination of the surface of the observation object W.
輝度値の絶対値は、観察対象物Wの色および材質等の反射率によって変わる。凹凸成分を強調して反映させるため、分母である輝度値i2と輝度値i1の和で分子を割ることにより、正規化が実行される。 The absolute value of the brightness value changes depending on the reflectance of the color and material of the observation object W. In order to emphasize and reflect the concavo-convex component, normalization is performed by dividing the numerator by the sum of the luminance value i2 and the luminance value i1 which are denominators.
着色部36は、撮像部25により取得された観察対象物Wについてのカラー画像から色情報を取得して凹凸強調画像をカラー化する。高さ画像生成部35は、凹凸強調画像の各画素を積分することで各画素ごとに観察対象物Wの表面の高さを求め、当該高さを各画素とする高さ画像を生成する。高さ画像生成部35は、高さ画像の各画素を、各画素の高さに応じて着色することでカラー高さ画像を生成してもよい。 The coloring unit 36 acquires color information from the color image of the observation object W acquired by the imaging unit 25 and colorizes the unevenness-enhanced image. The height image generation unit 35 obtains the height of the surface of the observation target W for each pixel by integrating each pixel of the unevenness-enhanced image, and generates a height image having the height as each pixel. The height image generation unit 35 may generate a color height image by coloring each pixel of the height image according to the height of each pixel.
このように凹凸強調画像では、観察対象物Wの画像における色成分が除去されている。色成分がないと、凹凸を確認しにくい。そのため、着色部36が色付けを実行している。 In this way, in the unevenness-enhanced image, the color component in the image of the observation object W is removed. If there is no color component, it is difficult to check the unevenness. Therefore, the coloring unit 36 executes coloring.
図8は観察対象物Wの一例としてレーザマーカでマーキングされた観察対象物を示している。図8(A)は通常の観察画像を示している。図8(B)は凹凸強調画像を示している。図8(C)は高さ画像生成部35により高さに応じて凹凸強調画像に着色を施すことで生成された画像を示している。 FIG. 8 shows an observation object marked with a laser marker as an example of the observation object W. FIG. 8A shows a normal observation image. FIG. 8B shows an unevenness-enhanced image. FIG. 8C shows an image generated by the height image generation unit 35 coloring the unevenness-enhanced image according to the height.
図8(A)では、観察対象物Wの凹凸の様子を把握できないが、図8(B)では、凹凸の様子を把握できる。図8(B)では錯視により、凹と凸とが逆転して見えることがある。そのため、図8(C)が示すように着色することにより凹と凸とを正確に把握することができる。 In FIG. 8(A), it is not possible to grasp the unevenness of the observation object W, but in FIG. 8(B) it is possible to understand the unevenness. In FIG. 8B, the concave and the convex may appear to be reversed due to an illusion. Therefore, by coloring as shown in FIG. 8C, it is possible to accurately grasp the concaves and convexes.
このように照明の方向を切り替えて、観察対象物Wの局所的な面の傾きに応じた輝度値を得ることで、凹凸強調画像が得られる。 In this manner, the unevenness-enhanced image is obtained by switching the direction of illumination and obtaining the brightness value according to the local inclination of the surface of the observation object W.
<深度合成と凹凸強調の原理>
図4(A)はリング照明26の一部を点灯させることで第一照明方向から観察対象物Wに照明光を照射していることを示している。リング照明26は、四つの光源領域140A、140B、140C、140Dを有している。つまり、リング照明26は、四つの光源領域140A、140B、140C、140Dを選択的に点灯および消灯することで、四つの照明方向から照明光を観察対象物Wに照射できる。光源領域140Aの照明方向と光源領域140Cの照明方向とは光軸A1に対して対称となっている。光源領域140Bの照明方向と光源領域140Dの照明方向とは光軸A1に対して対称となっている。図4(A)では光源領域140Aだけが点灯している。
<Principle of depth synthesis and embossing>
FIG. 4A illustrates that the observation object W is illuminated with illumination light from the first illumination direction by turning on a part of the ring illumination 26. The ring illumination 26 has four light source regions 140A, 140B, 140C, 140D. That is, the ring illumination 26 can illuminate the observation object W from the four illumination directions by selectively turning on and off the four light source regions 140A, 140B, 140C, and 140D. The illumination direction of the light source region 140A and the illumination direction of the light source region 140C are symmetrical with respect to the optical axis A1. The illumination direction of the light source region 140B and the illumination direction of the light source region 140D are symmetrical with respect to the optical axis A1. In FIG. 4A, only the light source area 140A is turned on.
図4(B)は第一照明方向から観察対象物Wに照明光を照射することで取得された輝度画像I1を示している。SHは観察対象物Wの影を示している。 FIG. 4B shows a luminance image I1 obtained by irradiating the observation object W with illumination light from the first illumination direction. SH indicates the shadow of the observation object W.
図4(C)は光源領域140Cだけを点灯することで第二照明方向から観察対象物Wに照明光を照射することを示している。図4(C)は第二照明方向から観察対象物Wに照明光を照射することで取得された輝度画像I2を示している。 FIG. 4C shows that the observation object W is irradiated with the illumination light from the second illumination direction by turning on only the light source region 140C. FIG. 4C shows a luminance image I2 obtained by irradiating the observation object W with illumination light from the second illumination direction.
図4(E)は第一照明方向から観察対象物Wに照明光を照射し、かつ、合焦位置を変えながら取得されたn個の第一輝度画像I11〜I1nを示している。深度合成部33は、n個の第一輝度画像I11〜I1nを深度合成することで、第一深度合成画像Ia1を作成する。たとえば、深度合成部33は、複数の第一輝度画像I11〜I1nにおいてそれぞれ画素位置が同じである複数の画素を解析し、当該複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置でそれぞれ合焦画素からなる第一深度合成画像I1aを生成する。 FIG. 4E shows n first luminance images I11 to I1n acquired by irradiating the observation object W with illumination light from the first illumination direction and changing the focus position. The depth synthesis unit 33 creates a first depth synthesis image Ia1 by performing depth synthesis on the n first luminance images I11 to I1n. For example, the depth synthesis unit 33 analyzes a plurality of pixels having the same pixel position in each of the plurality of first luminance images I11 to I1n, and determines the pixel having the highest degree of focus among the plurality of pixels as the pixel concerned. By selecting the focus pixel at the position, the first depth composite image I1a including the focus pixels at a plurality of pixel positions is generated.
図4(F)は第二照明方向から観察対象物Wに照明光を照射し、かつ、合焦位置を変えながら取得されたn個の第二輝度画像I21〜I2nを示している。深度合成部33は、n個の第二輝度画像I21〜I2nを深度合成することで、第二深度合成画像I2aを作成する。たとえば、深度合成部33は、複数の第二輝度画像I21〜I2nにおいてそれぞれ画素位置が同じである複数の画素を解析し、当該複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置でそれぞれ合焦画素からなる第二深度合成画像I2aを生成する。 FIG. 4F shows n second luminance images I21 to I2n acquired by irradiating the observation object W with illumination light from the second illumination direction and changing the focus position. The depth synthesis unit 33 creates a second depth synthesis image I2a by performing depth synthesis on the n second luminance images I21 to I2n. For example, the depth synthesis unit 33 analyzes a plurality of pixels having the same pixel position in each of the plurality of second luminance images I21 to I2n, and determines the pixel with the highest degree of focus among the plurality of pixels as the pixel concerned. By selecting the focus pixel at the position, the second depth composite image I2a composed of the focus pixels at a plurality of pixel positions is generated.
凹凸強調部34は、第一深度合成画像I1aと第二深度合成画像I2aとを用いて凹凸強調画像を生成する。凹凸強調部34は、第一深度合成画像I1aと第二深度合成画像I2aとの輝度の差分に基づき凹凸強調画像を生成する。 The unevenness emphasizing unit 34 generates an unevenness emphasized image using the first depth combined image I1a and the second depth combined image I2a. The unevenness emphasizing unit 34 generates the unevenness emphasized image based on the difference in luminance between the first depth combined image I1a and the second depth combined image I2a.
なお、図4においては影SHが生じるような観察対象物Wが用いられている。凹凸強調画像により凹凸を把握しやすくなる観察対象物Wは、図8に示されたような微小な凹凸を有するものである。 In addition, in FIG. 4, an observation target object W that causes a shadow SH is used. The observation object W, which makes it easier to grasp the unevenness by the unevenness-enhanced image, has minute unevenness as shown in FIG.
第一照明方向と第二照明方向からの照明光を切り替えて画像が取得され、上述したような方法で凹凸強調画像が生成される。これにより、観察対象物Wの表面の凹凸が強調される。 An image is acquired by switching the illumination light from the first illumination direction and the illumination light from the second illumination direction, and the unevenness-enhanced image is generated by the method as described above. Thereby, the unevenness on the surface of the observation object W is emphasized.
図8(A)の点pにおいては、凹凸があるのか把握できない。しかし、図8(B)が示すような凹凸強調画像においては、同じ点pにおいて凹凸があるかどうかを把握できる。 At point p in FIG. 8(A), it is not possible to determine whether there is unevenness. However, in the unevenness-enhanced image as shown in FIG. 8B, it is possible to grasp whether there is unevenness at the same point p.
このように、照明方向を切り替えた画像を用いて、観察対象物の微小な傾斜を強調する演算処理をすることで凹凸強調画像が得られる。 In this way, the unevenness-enhanced image can be obtained by performing the arithmetic processing for emphasizing the minute inclination of the observation target by using the image in which the illumination direction is switched.
<載置台の移動と画像の表示>
UI部65は、凹凸強調部34により生成された凹凸強調画像を表示部2に表示する。ユーザは観察対象物Wの一部を拡大観察するために凹凸強調画像を利用する。ここで、観察対象物Wの複数の箇所が拡大観察の対象となる場合がある。この場合に、ユーザはコンソール部3を操作することで、載置台30をX方向やY方向に移動させたり、θ方向に回転させたりする。CPU61はコンソール部3からX方向への移動指示が入力されると、載置台駆動部29により載置台30をX方向へ移動させ、CPU61はコンソール部3からY方向への移動指示が入力されると、載置台駆動部29により載置台30をY方向へ移動させる。このような移動指示が入力されている限り、CPU61は移動指示にしたがって連続的に載置台30を移動する。ユーザによる移動指示の入力が停止すると、CPU61は載置台駆動部29による載置台30の移動を停止させる。
<Moving the mounting table and displaying images>
The UI unit 65 displays the unevenness emphasized image generated by the unevenness emphasizing unit 34 on the display unit 2. The user uses the unevenness-enhanced image to magnify and observe a part of the observation object W. Here, there are cases where a plurality of portions of the observation object W are targets for magnified observation. In this case, the user operates the console unit 3 to move the mounting table 30 in the X direction or the Y direction or rotate it in the θ direction. When a movement instruction in the X direction is input from the console unit 3, the CPU 61 causes the mounting table drive unit 29 to move the mounting table 30 in the X direction, and the CPU 61 inputs a movement instruction in the Y direction from the console unit 3. Then, the mounting table driving unit 29 moves the mounting table 30 in the Y direction. As long as such a movement instruction is input, the CPU 61 continuously moves the mounting table 30 according to the movement instruction. When the input of the movement instruction by the user is stopped, the CPU 61 stops the movement of the mounting table 30 by the mounting table drive unit 29.
ここで、凹凸強調画像を生成するためには、ある程度の処理時間が必要となるため、載置台30が移動している期間においては、UI部65は、凹凸強調部34により生成された凹凸強調画像を表示部2に表示できない。そこで、載置台30が移動している期間において、UI部65は、輝度画像生成部31が生成した観察対象物Wの輝度画像を表示部2に表示する。これにより、ユーザは表示部2に表示された輝度画像を確認することで、次の観察部位が撮像部25の視野範囲に位置しているかどうかを確認できるようになる。ここで、UI部65は、一定時間ごとに観察対象物Wの輝度画像を更新することで、表示部2には動画のように観察対象物Wの輝度画像が表示される。CPU61は、移動指示の入力が停止したこと(載置台30の停止)を検知すると、画像プロセッサ66に凹凸強調画像の生成を指示する。これにより、上述した輝度画像の取得、深度合成、および凹凸強調画像が再度実行され、新たな観察位置での凹凸強調画像が表示部2に表示される。ユーザが凹凸強調画像の再生成を指示しなくても、載置台30の停止に応じて、凹凸強調画像が再生成される。そのため、ユーザは効率よく複数の観察部位を観察できるようになろう。 Here, since a certain amount of processing time is required to generate the unevenness-enhanced image, the UI unit 65 causes the unevenness-enhancement unit 34 to generate the unevenness-enhancement process while the mounting table 30 is moving. The image cannot be displayed on the display unit 2. Therefore, the UI unit 65 displays the brightness image of the observation target object W generated by the brightness image generation unit 31 on the display unit 2 while the mounting table 30 is moving. Thereby, the user can confirm whether or not the next observation site is located in the visual field range of the image capturing unit 25 by confirming the brightness image displayed on the display unit 2. Here, the UI unit 65 updates the luminance image of the observation target object W at regular intervals, so that the display unit 2 displays the luminance image of the observation target object W like a moving image. When the CPU 61 detects that the input of the movement instruction is stopped (stop of the mounting table 30), the CPU 61 instructs the image processor 66 to generate the unevenness-enhanced image. As a result, the acquisition of the brightness image, the depth combination, and the unevenness emphasized image described above are executed again, and the unevenness emphasized image at the new observation position is displayed on the display unit 2. Even if the user does not instruct to regenerate the unevenness-enhanced image, the unevenness-enhanced image is regenerated according to the stop of the mounting table 30. Therefore, the user will be able to efficiently observe a plurality of observation sites.
<凹凸強調画像の着色>
凹凸強調画像を構成する各画素は、観察対象物Wの表面の凹凸を示しており、表面の色情報を含まない。そのため、ユーザは、観察部位の色と凹凸の位置との関係を把握しにくい。そこで、着色部36は、リング照明26の光源領域140A〜140Dをすべて点灯させ、撮像部25に観察対象物Wを撮像させる。こにより、輝度画像生成部31は観察対象物Wのカラー画像(輝度画像)を生成する。着色部36は、カラー画像から色情報を取得し、凹凸強調画像に色情報をマッピングして凹凸強調画像をカラー化し、表示部2に表示する。これによりユーザは、観察部位の色と凹凸の位置との関係を把握しやすくなる。
<Coloring of the embossed image>
Each pixel forming the unevenness-enhanced image shows unevenness on the surface of the observation object W and does not include surface color information. Therefore, it is difficult for the user to grasp the relationship between the color of the observed region and the position of the unevenness. Therefore, the coloring unit 36 turns on all the light source regions 140A to 140D of the ring illumination 26, and causes the imaging unit 25 to image the observation target object W. As a result, the luminance image generation unit 31 generates a color image (luminance image) of the observation object W. The coloring unit 36 acquires color information from the color image, maps the color information on the unevenness emphasized image to colorize the unevenness emphasized image, and displays the color on the display unit 2. This makes it easier for the user to understand the relationship between the color of the observed region and the position of the unevenness.
<HDR処理>
観察対象物Wの表面が金属である場合、輝度画像において白飛びした画素や黒つぶれした画素が発生することがある。このような場合に、最終的に生成される凹凸強調画像において凹凸を確認しにくくなる。そこで、HDR処理部32が採用されてもよい。HDR処理部32は、一つの合焦位置について、露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで一つの輝度画像を生成する。HDR処理部32は、合焦位置が変更されるたびに、露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで一つの輝度画像を生成する。これにより、第一輝度画像I11〜I1nと第二輝度画像I21〜I2nはいずれもHDR処理された画像となる。よって、深度合成部33は、HDR処理された第一輝度画像I11〜I1nを深度合成して、第一深度画像I1aを生成し、HDR処理された第二輝度画像I21〜I2nを深度合成して、第二深度画像I2aを生成する。さらに、凹凸強調部34は、HDR処理された第一深度画像I1aおよびHDR処理された第二深度画像I2aを合成することで、HDR処理された凹凸強調画像を生成する。これにより、白飛びや黒つぶれが発生しにくくなるため、ユーザは、凹凸強調画像を確認することで、観察対象物Wにおける凹凸をより正確に把握しやすくなろう。
<HDR processing>
When the surface of the observation object W is a metal, whiteout pixels or blackout pixels may occur in the luminance image. In such a case, it becomes difficult to confirm the unevenness in the finally generated unevenness-enhanced image. Therefore, the HDR processing unit 32 may be adopted. The HDR processing unit 32 acquires a plurality of sub-luminance images having different exposure times for one in-focus position, and performs HDR processing on the plurality of sub-luminance images to generate one luminance image. The HDR processing unit 32 acquires a plurality of sub-luminance images having different exposure times each time the focus position is changed, and performs HDR processing on the plurality of sub-luminance images to generate one luminance image. As a result, the first luminance images I11 to I1n and the second luminance images I21 to I2n are all HDR-processed images. Therefore, the depth synthesis unit 33 performs depth synthesis on the HDR-processed first luminance images I11 to I1n to generate a first depth image I1a, and performs depth synthesis on the HDR-processed second luminance images I21 to I2n. , The second depth image I2a is generated. Further, the unevenness emphasizing unit 34 synthesizes the HDR-processed first depth image I1a and the HDR-processed second depth image I2a to generate the HDR-processed unevenness emphasis image. As a result, overexposure and underexposure are less likely to occur, so that the user can more easily grasp the unevenness of the observation object W by checking the unevenness-enhanced image.
<高さ画像>
上述された凹凸強調画像は観察対象物Wの表面の高さ情報を含まない。そのため、クレーター錯視が発生する。クレーター錯視とは、画像として凹形状と凸形状とが区別できないために、観察者が凹部と凸部とを誤って認識してしまう現象である。そこで、高さ画像生成部35は、凹凸強調画像の各画素を積分することで各画素ごとに観察対象物Wの表面の高さを求め、当該高さを各画素とする高さ画像を生成し、表示部2に表示してもよい。さらに、高さ画像生成部35は、高さ画像の各画素の高さデータを色情報に変換し、凹凸強調画像に対して色情報をマッピングすることで、高さに応じて異なる色で着色された凹凸強調画像を生成し、表示部2に表示してもよい。これにより、ユーザは、色情報に基づき観察対象物Wの表面における凹形状と凸形状とを区別しやすくなろう。
<Height image>
The unevenness-enhanced image described above does not include the height information of the surface of the observation object W. Therefore, a crater illusion occurs. The crater illusion is a phenomenon in which an observer mistakenly recognizes a concave portion and a convex portion because the concave shape and the convex shape cannot be distinguished as an image. Therefore, the height image generation unit 35 obtains the height of the surface of the observation object W for each pixel by integrating each pixel of the unevenness-enhanced image, and generates a height image having the height as each pixel. However, it may be displayed on the display unit 2. Further, the height image generation unit 35 converts the height data of each pixel of the height image into color information and maps the color information on the unevenness-enhanced image so that the height image generation unit 35 colors with a different color depending on the height. The unevenness-enhanced image thus generated may be generated and displayed on the display unit 2. This makes it easier for the user to distinguish between the concave shape and the convex shape on the surface of the observation object W based on the color information.
<その他>
図4においては光源領域140A、140Cについて説明されたが、この説明は光源領域140B、140Dにも適用可能である。つまり、画像プロセッサ66は、光源領域140A、140Cとのペアを用いて凹凸強調画像を生成してもよいし、光源領域140B、140Dとのペアを用いて凹凸強調画像を生成してもよい。光源領域140Bの照明方向は第三照明方向と呼ばれてもよい。光源領域140Dの照明方向は第四照明方向と呼ばれてもよい。第三照明方向と第四照明方向とは光軸A1を挟んで対称(線対称)となっている。
<Other>
Although the light source areas 140A and 140C have been described in FIG. 4, this description is also applicable to the light source areas 140B and 140D. That is, the image processor 66 may generate an unevenness-enhanced image using a pair with the light source regions 140A and 140C, or may generate an unevenness-enhanced image using a pair with the light source regions 140B and 140D. The illumination direction of the light source region 140B may be referred to as the third illumination direction. The illumination direction of the light source region 140D may be referred to as the fourth illumination direction. The third illumination direction and the fourth illumination direction are symmetrical (axisymmetric) with the optical axis A1 interposed.
輝度画像生成部31は、リング照明26を制御することで観察対象物Wに対して第一照明方向および第二照明方向と異なる第三照明方向から照明光を観察対象物Wに対して照射する。輝度画像生成部31は、Z方向駆動部28や撮像部25を制御し、それぞれ異なる複数の合焦位置のそれぞれで観察対象物Wを撮像することで複数の第三輝度画像を取得する。同様に、輝度画像生成部31は、リング照明26を制御することで観察対象物Wに対して第四照明方向から照明光を観察対象物Wに対して照射する。輝度画像生成部31は、Z方向駆動部28や撮像部25を制御し、それぞれ異なる複数の合焦位置のそれぞれで観察対象物Wを撮像することで複数の第四輝度画像を取得する。画像プロセッサ66は、第一照明方向、第二照明方向、第三照明方向および第四照明方向のうちUI部65により選択された照明方向に対応した凹凸強調画像を、複数の第一輝度画像、複数の第二輝度画像、複数の第三輝度画像および複数の第四輝度画像のうち選択された照明方向に対応した複数の輝度画像を用いて生成する。表示部2は、選択された照明方向に対応した凹凸強調画像を表示する。上述の実施形態では、第一照明方向が選択されているが、第二照明方向が選択されてもよい。この場合、(1)式におけるi1とi2とが入れ替わる。第三照明方向が選択された場合、(1)式において、第三輝度画像の各画素の輝度値がi1となり、第四輝度画像の各画素の輝度値がi2となる。第四照明方向が選択された場合、(1)式において、第四輝度画像の各画素の輝度値がi1となり、第三輝度画像の各画素の輝度値がi2となる。 The luminance image generation unit 31 controls the ring illumination 26 to irradiate the observation object W with illumination light from the third illumination direction different from the first illumination direction and the second illumination direction. . The brightness image generation unit 31 controls the Z-direction drive unit 28 and the imaging unit 25, and acquires a plurality of third brightness images by imaging the observation object W at each of a plurality of different in-focus positions. Similarly, the luminance image generation unit 31 controls the ring illumination 26 to irradiate the observation target W with illumination light from the fourth illumination direction. The brightness image generation unit 31 controls the Z direction drive unit 28 and the imaging unit 25, and acquires a plurality of fourth brightness images by imaging the observation target W at each of a plurality of different focus positions. The image processor 66 outputs the unevenness-enhanced image corresponding to the illumination direction selected by the UI unit 65 among the first illumination direction, the second illumination direction, the third illumination direction, and the fourth illumination direction to a plurality of first luminance images It is generated using a plurality of luminance images corresponding to the selected illumination direction among the plurality of second luminance images, the plurality of third luminance images, and the plurality of fourth luminance images. The display unit 2 displays the unevenness-enhanced image corresponding to the selected illumination direction. Although the first illumination direction is selected in the above embodiment, the second illumination direction may be selected. In this case, i1 and i2 in the equation (1) are interchanged. When the third illumination direction is selected, the brightness value of each pixel of the third brightness image is i1 and the brightness value of each pixel of the fourth brightness image is i2 in the expression (1). When the fourth illumination direction is selected, the luminance value of each pixel of the fourth luminance image becomes i1 and the luminance value of each pixel of the third luminance image becomes i2 in the formula (1).
<変形例>
上述した実施形態では深度合成が実行された後で凹凸強調が実行されている。しかし、凹凸強調が先に実行され、その後に深度合成が実行されてもよい。
<Modification>
In the above-described embodiment, the unevenness enhancement is performed after the depth stacking is performed. However, the unevenness enhancement may be performed first, and then the depth stacking may be performed.
凹凸強調部34は、第一輝度画像I11と第二輝度画像I21とを用いてサブ凹凸強調画像I1xを生成する。同様に、凹凸強調部34は、第一輝度画像I12と第二輝度画像I22とを用いてサブ凹凸強調画像I2xを生成する。以下の同様に繰り返し、最終的に、凹凸強調部34は、第一輝度画像I1nと第二輝度画像I2nとを用いてサブ凹凸強調画像Ixnを生成する。これにより、深度合成部33は、n個のサブ凹凸強調画像Ix1〜Ixnを深度合成し、最終的な凹凸強調画像を生成し、表示部2に表示する。 The unevenness emphasizing unit 34 uses the first brightness image I11 and the second brightness image I21 to generate a sub unevenness emphasis image I1x. Similarly, the unevenness emphasizing unit 34 uses the first brightness image I12 and the second brightness image I22 to generate a sub unevenness emphasis image I2x. By repeating the same process as described below, finally, the unevenness emphasizing unit 34 generates the sub unevenness-enhanced image Ixn using the first luminance image I1n and the second luminance image I2n. As a result, the depth combination unit 33 performs depth combination of the n sub unevenness-enhanced images Ix1 to Ixn to generate a final unevenness-enhanced image, which is displayed on the display unit 2.
なお、リング照明26は、対物レンズ23の周囲に配置されていてもよいし、対物レンズ23を通じて照明光を観察対象物Wに照射するように構成されていてもよい。その他、リング照明26のレイアウトとしては、本件と同一出願人のUS2018/024346に開示されているものが用いられてもよい。その開示の全ては本明細書の一部として援用(incorporation herein by reference)される。 The ring illumination 26 may be arranged around the objective lens 23, or may be configured to irradiate the observation object W with illumination light through the objective lens 23. In addition, as the layout of the ring illumination 26, the one disclosed in US2018/024346 of the same applicant as this case may be used. The entire disclosure of which is incorporated herein by reference.
なお、観察部1のヘッド部22を載置台30に対して搖動して傾斜観察を行う場合であっても,ヘッド部22が載置台30に対して垂直であるときと同様に凹凸強調画像を生成することができる。上述したように,凹凸強調画像に対して,さらに深度合成をおこなってもよい。この際,ワークWの上面をユーセントリック位置に合わせるよう、ヘッド部22と載置台30とを駆動制御してもよい。このときの制御についても,特願2018−161347に開示されており,その開示の全てを本明細書の一部として援用(incorporation herein by reference)する。 Even when the head unit 22 of the observation unit 1 is swung with respect to the mounting table 30 to perform tilt observation, the unevenness-enhanced image is displayed in the same manner as when the head unit 22 is perpendicular to the mounting table 30. Can be generated. As described above, the depth stacking may be further performed on the unevenness-enhanced image. At this time, the head portion 22 and the mounting table 30 may be drive-controlled so that the upper surface of the work W is aligned with the eucentric position. The control at this time is also disclosed in Japanese Patent Application No. 2018-161347, and the entire disclosure thereof is incorporated as a part of this specification (incorporation here by reference).
<ユーザーインタフェース>
図5はUI部65が表示部2に表示するユーザーインタフェース70を示している。画像表示領域71は、画像プロセッサ66から表示制御部63を通じて出力される画像を表示する。この画像は、観察対象物Wのライブ画像、深度合成された凹凸強調画像、観察対象物Wの表面の色に応じて着色された凹凸強調画像、高さデータに基づき着色されたか凹凸強調画像(カラー高さ画像)などである。載置台30が移動していたり、対物レンズ23の切り替えが指示されたりしたことを検知部68が検知すると、UI部65は、観察対象物Wのライブ画像を画像表示領域71に表示する。倍率の変更が完了し、かつ、載置台30が静止したことを検知部68が検知すると、UI部65は、深度合成された凹凸強調画像を画像表示領域71に表示する。凹凸強調画像が表示されているときに載置台30が移動することが検知されると、UI部65は、ライブ画像を画像表示領域71に表示する。照明方向選択部72は、光源領域140A〜140Dに対応した四つのボタンを有している。上述したように、光源領域140Aと光源領域140Cとがペアを形成しているため、光源領域140Aに対応したボタンがポインタ74により選択されると、光源領域140Aの照明方向が第一照明方向に決定され、光源領域140Cの照明方向が第二照明方向に決定される。同様に、光源領域140Dに対応したボタンがポインタ74により選択されると、光源領域140Dの照明方向が第一照明方向に決定され、光源領域140Bの照明方向が第二照明方向に決定される。倍率選択部73は、レボルバ21に装着された複数の対物レンズ23のうち、いずれか一つの対物レンズ23を選択するためのプルダウンリストである。たとえば、UI部65は、レボルバ21に取り付けられた複数の対物レンズ23のそれぞれの倍率を対物レンズ23の設定情報から取得し、プルダウンリストを作成する。ユーザがポインタ74を操作していずれかの倍率を選択すると、UI部65は選択された倍率(対物レンズ23)をレボルバ駆動部24に通知する。レボルバ駆動部24は、通知された倍率の対物レンズ23が撮影光軸A1上に位置するようにレボルバ21を回転させる。レボルバ駆動部24は回転が終了すると、回転終了信号をCPU61に出力する。検知部68は、回転終了信号を受信すると、倍率変更が完了したと判定する。通常、倍率変更が完了すると、視野範囲内で観察部位の位置を調整することが必要となる。ユーザは、載置台30が移動することで、視野範囲内の所望の位置に観察部位を位置づける。載置台30が静止すると、UI部65は、画像プロセッサ66に凹凸強調画像の生成を指示する。UI部65は、ライブ画像に代えて深度合成された凹凸強調画像を画像表示領域71に表示する。
<User interface>
FIG. 5 shows a user interface 70 displayed on the display unit 2 by the UI unit 65. The image display area 71 displays an image output from the image processor 66 through the display control unit 63. This image is a live image of the observation target W, a depth-combined unevenness enhancement image, an unevenness enhancement image colored according to the color of the surface of the observation target W, or an unevenness enhancement image colored based on height data ( Color height image). When the detection unit 68 detects that the mounting table 30 is moving or that switching of the objective lens 23 is instructed, the UI unit 65 displays a live image of the observation object W in the image display area 71. When the change of the magnification is completed and the detection unit 68 detects that the mounting table 30 is stationary, the UI unit 65 displays the depth-combined unevenness-enhanced image in the image display area 71. When it is detected that the mounting table 30 moves while the unevenness-enhanced image is displayed, the UI unit 65 displays the live image in the image display area 71. The illumination direction selection unit 72 has four buttons corresponding to the light source areas 140A to 140D. As described above, since the light source region 140A and the light source region 140C form a pair, when the button corresponding to the light source region 140A is selected by the pointer 74, the illumination direction of the light source region 140A becomes the first illumination direction. Then, the illumination direction of the light source region 140C is determined as the second illumination direction. Similarly, when the button corresponding to the light source region 140D is selected by the pointer 74, the illumination direction of the light source region 140D is determined as the first illumination direction, and the illumination direction of the light source region 140B is determined as the second illumination direction. The magnification selection unit 73 is a pull-down list for selecting any one of the objective lenses 23 mounted on the revolver 21. For example, the UI unit 65 acquires the magnification of each of the plurality of objective lenses 23 attached to the revolver 21 from the setting information of the objective lenses 23 and creates a pull-down list. When the user operates the pointer 74 to select one of the magnifications, the UI unit 65 notifies the revolver drive unit 24 of the selected magnification (objective lens 23). The revolver drive unit 24 rotates the revolver 21 so that the objective lens 23 having the notified magnification is located on the photographing optical axis A1. When the revolver drive unit 24 has finished rotating, it outputs a rotation end signal to the CPU 61. Upon receiving the rotation end signal, the detection unit 68 determines that the magnification change has been completed. Normally, when the magnification change is completed, it is necessary to adjust the position of the observation site within the visual field range. The user positions the observation site at a desired position within the visual field range by moving the mounting table 30. When the mounting table 30 stands still, the UI unit 65 instructs the image processor 66 to generate the unevenness-enhanced image. The UI unit 65 displays, in the image display area 71, the unevenness-enhanced image that has been depth-synthesized instead of the live image.
なお、凹凸強調画像の表示と、ライブ画像の表示とを明示的に切り換えるための切替ボタンがユーザーインタフェース70に設けられてもよい。これによりユーザは、凹凸強調画像が完成した後に、凹凸強調画像とライブ画像とを切り換えて表示することで両者を対比してもよい。 It should be noted that the user interface 70 may be provided with a switching button for explicitly switching between displaying the embossed image and displaying the live image. Thus, the user may compare the both of the unevenness-enhanced image and the live image by switching between them after the completion of the unevenness-enhanced image.
図6はUI部65が表示部2に表示する他の例のユーザーインタフェース70を示している。この例では、画像表示領域71はライブ画像を表示し、画像表示領域75は、深度合成された凹凸強調画像、観察対象物Wの表面の色に応じて着色された凹凸強調画像、高さデータに基づき着色されたか凹凸強調画像(カラー高さ画像)などを表示する。図6において画像表示領域71、75は縦方向に並んでいるが、横方向に並べられてもよい。 FIG. 6 shows another example of the user interface 70 displayed on the display unit 2 by the UI unit 65. In this example, the image display area 71 displays a live image, and the image display area 75 displays depth-combined unevenness-enhanced images, unevenness-enhanced images colored according to the color of the surface of the observation object W, and height data. An image (color height image) or the like that is colored based on is displayed. Although the image display areas 71 and 75 are arranged in the vertical direction in FIG. 6, they may be arranged in the horizontal direction.
着色指定部76は、観察対象物Wの表面の色情報に基づいて、深度合成された凹凸強調画像に着色することを指示するためのラジオボタンと、観察対象物Wの表面の高さ情報に基づき、深度合成された凹凸強調画像に着色することを指示するためのラジオボタンと、着色しないことを指示するためのラジオボタンとを有している。UI部65は着色指定部76において指定された着色指示を画像プロセッサ66に通知する。着色指定部76は、図5に示されたユーザーインタフェース70にも設けられてもよい。深度合成指示部77は、深度合成を有効にするか無効にするかを指定するためのチェックボックスである。深度合成指示部77において深度合成が無効にされている場合、凹凸強調部34は、(1)式にしたがって、第一輝度画像と第二輝度画像とを用いて凹凸強調画像を生成する。この場合、画像表示領域75は、深度合成されていない凹凸強調画像を表示する。 The coloring designating section 76 uses radio buttons for instructing to color the depth-combined unevenness-enhanced image based on the color information of the surface of the observation target W, and height information of the surface of the observation target W. Based on this, it has a radio button for instructing to color the depth-combined unevenness-enhanced image and a radio button for instructing not to color. The UI unit 65 notifies the image processor 66 of the coloring instruction designated by the coloring designation unit 76. The coloring designating section 76 may also be provided in the user interface 70 shown in FIG. The depth stacking instruction unit 77 is a check box for designating whether to enable or disable depth stacking. When the depth stacking instruction unit 77 disables the depth stacking, the unevenness emphasizing unit 34 generates the unevenness emphasized image using the first brightness image and the second brightness image according to the equation (1). In this case, the image display area 75 displays an unevenness-enhanced image that has not been depth-combined.
なお、画像表示領域71にはライブ画像が表示されると説明されたが、これに限らない。観察対象物Wの全体的な様子を確認できればよいため、静止画等が表示されてもよい。 Although it has been described that the live image is displayed in the image display area 71, the present invention is not limited to this. A still image or the like may be displayed as long as the entire state of the observation target object W can be confirmed.
<フローチャート>
図7は拡大観察処理を示すフローチャートである。マウス4またはコンソール部3により開始が指示されると、CPU61は以下の処理を実行する。
<Flowchart>
FIG. 7 is a flowchart showing the magnification observation process. When the start is instructed by the mouse 4 or the console section 3, the CPU 61 executes the following processing.
凹凸強調画像が画像表示領域71に表示されている場合で説明する。 The case where the unevenness emphasized image is displayed in the image display area 71 will be described.
S0でCPU61はマウス4またはコンソール部3などにより入力される移動指示にしたがって載置台駆動部29を制御し、載置台30を移動させる。 In S0, the CPU 61 controls the mounting table driving unit 29 according to the movement instruction input from the mouse 4 or the console unit 3 to move the mounting table 30.
S1で移動開始が検知されると、画像表示領域71にはライブ画像が表示される。つまり、CPU61は撮像制御部62および照明制御部64を介して撮像部25およびリング照明26を制御し、観察対象物Wを撮像させ、画像プロセッサ66を制御し、観察対象物Wのライブ画像(一定時間ごとに更新される輝度画像)を生成させ、表示制御部63を介して表示部2にライブ画像を表示させる。ライブ画像は画像表示領域71に表示される。照明制御部64は、ライブ画像のために四つの光源領域140A〜140Dをすべて点灯する。ユーザはライブ画像を見ながら、撮像部25の視野範囲内に観察対象物Wが入るように載置台30をX方向、Y方向、Z方向、θ方向に移動させる。 When the movement start is detected in S1, a live image is displayed in the image display area 71. That is, the CPU 61 controls the imaging unit 25 and the ring illumination 26 via the imaging control unit 62 and the illumination control unit 64 to cause the observation target object W to be imaged, and controls the image processor 66 to display a live image of the observation target object W ( A brightness image that is updated at regular time intervals) is generated, and a live image is displayed on the display unit 2 via the display control unit 63. The live image is displayed in the image display area 71. The illumination control unit 64 turns on all four light source regions 140A to 140D for the live image. While viewing the live image, the user moves the mounting table 30 in the X direction, the Y direction, the Z direction, and the θ direction so that the observation target object W enters the visual field range of the imaging unit 25.
S2でCPU61は検知部68を用いて載置台30の移動が終了したかどうかを判定する。たとえば、マウス4またはコンソール部3などによる移動指示の入力が終了し、かつ、一定時間が経過するか、または、明示的な撮像指示が入力されると、CPU61(検知部68)は載置台30の移動が終了したと判定する。CPU61は、載置台30の移動が終了したと判定すると、S3に進む。 In S2, the CPU 61 uses the detection unit 68 to determine whether the movement of the mounting table 30 is completed. For example, when the input of the movement instruction by the mouse 4 or the console unit 3 is finished and a certain time has elapsed or an explicit imaging instruction is input, the CPU 61 (detection unit 68) causes the mounting table 30 It is determined that the movement of is completed. When the CPU 61 determines that the movement of the mounting table 30 is completed, the CPU 61 proceeds to S3.
S3でCPU61は移動終了したときのライブ画像を画像表示領域71に表示する。仮にS4からS10までの期間において表示領域に観察対象物Wの画像が表示されないと、ユーザは観察対象物Wを把握しにくくなってしまう。そのため、CPU61は、凹凸強調画像を生成中に、必要に応じて凹凸強調画像を生成する直前の観察対象物Wの画像を画像表示領域71に表示してもよい。 In S3, the CPU 61 displays the live image at the end of the movement in the image display area 71. If the image of the observation target object W is not displayed in the display area during the period from S4 to S10, it becomes difficult for the user to grasp the observation target object W. Therefore, the CPU 61 may display the image of the observation object W immediately before the unevenness-enhanced image is generated in the image display area 71, if necessary, while generating the unevenness-enhanced image.
S4でCPU61は第一照明方向についてそれぞれ合焦位置が異なる複数の第一輝度画像I11〜I1nを生成する。照明制御部64は、光源領域140A〜140Dのうち第一照明方向に対応する一つの光源領域を点灯させる。撮像制御部62は、Z方向駆動部28を通じて対物レンズ23の合焦位置を少しずつ変えながら撮像部25および輝度画像生成部31に第一輝度画像I11〜I1nを取得させる。 In S4, the CPU 61 generates a plurality of first luminance images I11 to I1n having different focusing positions in the first illumination direction. The illumination control unit 64 turns on one light source region corresponding to the first illumination direction among the light source regions 140A to 140D. The imaging control unit 62 causes the imaging unit 25 and the brightness image generation unit 31 to acquire the first brightness images I11 to I1n while gradually changing the focus position of the objective lens 23 through the Z-direction drive unit 28.
S5でCPU61は第二照明方向についてそれぞれ合焦位置が異なる複数の第二輝度画像I21〜I2nを生成する。照明制御部64は、光源領域140A〜140Dのうち第二照明方向に対応する一つの光源領域を点灯させる。撮像制御部62は、Z方向駆動部28を通じて対物レンズ23の合焦位置を少しずつ変えながら撮像部25および輝度画像生成部31に第二輝度画像I21〜I2nを取得させる。 In S5, the CPU 61 generates a plurality of second luminance images I21 to I2n having different focusing positions in the second illumination direction. The illumination control unit 64 turns on one light source region corresponding to the second illumination direction among the light source regions 140A to 140D. The imaging control unit 62 causes the imaging unit 25 and the luminance image generation unit 31 to acquire the second luminance images I21 to I2n while gradually changing the focus position of the objective lens 23 through the Z-direction driving unit 28.
S6でCPU61は深度合成部33を用いて第一輝度画像I11〜I1nを深度合成することで第一照明方向についての第一深度画像I1aを生成する。 In S6, the CPU 61 uses the depth combination unit 33 to perform depth combination of the first luminance images I11 to I1n to generate the first depth image I1a in the first illumination direction.
S7でCPU61は深度合成部33を用いて第二輝度画像I21〜I2nを深度合成することで第二照明方向についての第二深度画像I2aを生成する。 In S7, the CPU 61 uses the depth combination unit 33 to perform depth combination of the second luminance images I21 to I2n to generate the second depth image I2a in the second illumination direction.
S8でCPU61は凹凸強調部34を用いて第一深度画像I1aと第二深度画像I2aとに基づき凹凸強調画像を生成する。 In S8, the CPU 61 uses the unevenness emphasizing unit 34 to generate an unevenness-enhanced image based on the first depth image I1a and the second depth image I2a.
S9でCPU61は着色部36または高さ画像生成部35を用いて凹凸強調画像を着色する。これにより、観察対象物Wの表面の色が凹凸強調画像に付与されたり、高さ画像から取得した高さデータに応じて凹凸強調画像に着色が施されたりする。着色処理を実行するか否かと何の着処理を実行するかは、着色指定部76においてどのラジオボタンが押されているかに依存する。 In S9, the CPU 61 uses the coloring unit 36 or the height image generation unit 35 to color the concave-convex emphasized image. Thereby, the color of the surface of the observation object W is added to the unevenness-emphasized image, or the unevenness-enhanced image is colored according to the height data acquired from the height image. Whether or not to execute the coloring process and what to perform the coloring process depend on which radio button is pressed in the coloring designation unit 76.
S10でCPU61はUI部65および表示制御部63を通じて表示部2に凹凸強調画像を表示する。つまり、画像表示領域71には観察対象物Wのライブ画像に代えて凹凸強調画像が表示される。なお、図6に示されたユーザーインタフェース70では、画像表示領域71に観察対象物Wのライブ画像が表示され、画像表示領域75に深度合成された凹凸強調画像が表示される。 In S10, the CPU 61 displays the concave-convex emphasized image on the display unit 2 through the UI unit 65 and the display control unit 63. That is, in the image display area 71, the embossed image is displayed instead of the live image of the observation object W. In the user interface 70 shown in FIG. 6, a live image of the observation object W is displayed in the image display area 71, and a depth-combined unevenness-enhanced image is displayed in the image display area 75.
S11でCPU61は拡大観察処理の終了指示が入力されたかどうかを判定する。マウス4などから終了指示が入力されると、CPU61は拡大観察処理を終了する。終了指示が入力されていなければ、CPU61はS12に進む。 In S11, the CPU 61 determines whether or not an instruction to end the magnifying observation process has been input. When the end instruction is input from the mouse 4 or the like, the CPU 61 ends the magnifying observation process. If the end instruction has not been input, the CPU 61 proceeds to S12.
S12でCPU61は検知部68を用いてマウス4などから載置台30の移動指示または倍率変更指示が入力されているかどうかを判定する。移動指示と倍率変更指示との両方ともが入力されていなければ、CPU61はS11に戻る。移動指示または倍率変更指示が入力されれば、CPU61はS1に戻り、観察対象物Wのライブ画像を表示部2に表示する。その後、載置台30の移動が停止すると、CPU61は凹凸強調画像の生成を再度実行する。 In S12, the CPU 61 uses the detection unit 68 to determine whether or not an instruction to move the mounting table 30 or an instruction to change the magnification is input from the mouse 4 or the like. If neither the movement instruction nor the magnification change instruction has been input, the CPU 61 returns to S11. When the movement instruction or the magnification change instruction is input, the CPU 61 returns to S1 and displays the live image of the observation object W on the display unit 2. After that, when the movement of the mounting table 30 is stopped, the CPU 61 executes the generation of the unevenness-enhanced image again.
<まとめ>
図1などを用いて説明したように、ヘッド部22は対物レンズと結像レンズとを含む光学系として機能する。載置台30は少なくともX方向とY方向とに光学系に対して相対的に移動可能なXYステージの一例である。検知部68は光学系に対するXYステージの相対的な移動を検知する検知部として機能する。リング照明26は光学系の視野に載置された観察対象物Wに対してそれぞれ異なる方向から照明光を照射する照明部として機能する。撮像部25は光学系を介して観察対象物Wからの光を受光して観察対象物Wの輝度画像を生成する。Z方向駆動部28は、光学系の光軸A1に沿って光学系の合焦位置を変化させる変化部として機能する。制御部60は照明部、撮像部および変化部を制御する制御部として機能する。表示部2は観察対象物Wの画像である観察画像を表示する表示部として機能する。画像プロセッサ66は、(i)照明部を制御することで観察対象物に対して第一照明方向から照明光を観察対象物に対して照射し、変化部と撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで観察対象物を撮像することで複数の第一輝度画像を取得し、(ii)照明部を制御することで観察対象物に対して第一照明方向に対して光軸を挟んで対称となる第二照明方向から照明光を観察対象物に対して照射し、変化部と撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで観察対象物を撮像することで複数の第二輝度画像を取得し、(iii)複数の第一輝度画像と複数の第二輝度画像とについて深度合成および凹凸強調することで観察対象物の表面の凹凸が強調され、かつ、撮像部により取得可能な単一の輝度画像と比較して被写界深度の広い凹凸強調画像を生成する画像生成部として機能する。表示部2は、観察画像として、凹凸強調画像を表示する。これにより、深度合成された凹凸強調画像が提供される。
<Summary>
As described with reference to FIG. 1 and the like, the head unit 22 functions as an optical system including an objective lens and an imaging lens. The mounting table 30 is an example of an XY stage that can move relative to the optical system in at least the X and Y directions. The detection unit 68 functions as a detection unit that detects the relative movement of the XY stage with respect to the optical system. The ring illumination 26 functions as an illumination unit that illuminates the observation object W placed in the visual field of the optical system with illumination light from different directions. The imaging unit 25 receives light from the observation object W via the optical system and generates a brightness image of the observation object W. The Z-direction drive unit 28 functions as a changing unit that changes the focus position of the optical system along the optical axis A1 of the optical system. The control unit 60 functions as a control unit that controls the illumination unit, the imaging unit, and the changing unit. The display unit 2 functions as a display unit that displays an observation image that is an image of the observation object W. The image processor 66 (i) irradiates the observation target with illumination light from the first illumination direction by controlling the illumination unit, controls the changing unit and the imaging unit, and controls a plurality of different units. A plurality of first luminance images are acquired by imaging the observation object at each of the in-focus positions, and (ii) the illumination unit is controlled to control the optical axis of the observation object with respect to the first illumination direction. By irradiating the observation object with illumination light from the second illumination direction that is symmetrical with respect to, and controlling the changing unit and the imaging unit to image the observation object at each of a plurality of different in-focus positions. Acquiring a plurality of second luminance images, and (iii) depth combination and unevenness enhancement of the plurality of first luminance images and the plurality of second luminance images enhances the unevenness of the surface of the observation target and captures the image. It functions as an image generation unit that generates an unevenness-enhanced image with a wider depth of field than a single luminance image that can be acquired by the unit. The display unit 2 displays the embossed image as the observation image. This provides a depth-combined unevenness-enhanced image.
表示部2は、検知部68が観察対象物Wに対する観察状態の変化(例:XYステージの相対的な移動)を検知している間は、観察画像として、撮像部25により取得された観察対象物Wの動画像(ライブ画像)を表示する。表示部2は、検知部68が観察対象物Wに対する観察状態の変化(例:XYステージの相対的な移動)の停止を検知すると、観察画像として、観察対象物Wに対する観察状態の変化の停止後に画像生成部により生成された凹凸強調画像を表示する。これにより、ユーザは、撮像部25の視野範囲と観察対象物Wとの関係を確認しながら、XYステージを移動させることが可能となる。また、ユーザは、XYステージが静止すると、すぐに深度合成された凹凸強調画像を見ることができるため、効率よく観察対象物Wを観察することが可能となる。観察対象物に対する観察状態の変化としては、たとえば、変化部による合焦位置の変化と、XYステージの移動(例:X方向への移動、Y方向への移動、Z方向への移動、θ回転など)と、照明部による照明の切替えと、光学系の光軸と観察対象物Wとの相対的な角度の変化とのうち少なくとも一つが含まれてもよい。 While the detection unit 68 is detecting a change in the observation state with respect to the observation target W (eg, relative movement of the XY stage), the display unit 2 displays the observation target as the observation image acquired by the imaging unit 25. A moving image (live image) of the object W is displayed. When the detection unit 68 detects the stop of the change of the observation state with respect to the observation target W (eg, the relative movement of the XY stage), the display unit 2 stops the change of the observation state with respect to the observation target W as an observation image. After that, the unevenness-enhanced image generated by the image generation unit is displayed. As a result, the user can move the XY stage while confirming the relationship between the visual field range of the imaging unit 25 and the observation target object W. Further, since the user can immediately see the depth-combined unevenness-enhanced image when the XY stage is stationary, the user can efficiently observe the observation object W. The change of the observation state with respect to the observation target is, for example, the change of the focus position by the changing portion and the movement of the XY stage (eg, movement in the X direction, movement in the Y direction, movement in the Z direction, θ rotation). Etc.), switching of illumination by the illumination unit, and change in relative angle between the optical axis of the optical system and the observation object W may be included.
検知部68は、光学系の倍率の変更をさらに検知するように構成されていてもよい。表示部2は、検知部68がXYステージの相対的な移動を検知している間は、観察画像として、撮像部25により取得された観察対象物Wの動画像を表示する。さらに、表示部2は、検知部68がXYステージの相対的な移動の停止と、光学系の倍率の変更とを検知すると、観察画像として、XYステージの相対的な移動の停止と倍率の変更後に画像生成部により生成された凹凸強調画像を表示してもよい。 The detection unit 68 may be configured to further detect a change in the magnification of the optical system. The display unit 2 displays the moving image of the observation target object W acquired by the imaging unit 25 as the observation image while the detection unit 68 detects the relative movement of the XY stage. Further, when the detection unit 68 detects that the relative movement of the XY stage is stopped and the magnification of the optical system is changed, the display unit 2 stops the relative movement of the XY stage and changes the magnification as an observation image. The unevenness-enhanced image generated by the image generation unit may be displayed later.
図5や図6に示したように、表示部2は、動画像の表示領域と凹凸強調画像の表示領域とを有していてもよい。 As shown in FIGS. 5 and 6, the display unit 2 may have a display area for a moving image and a display area for a concave-convex emphasized image.
検知部68は対物レンズ23のマニュアルまたはオートフォーカスによるピント調整が完了したことを検知してもよい。対物レンズ23の倍率が変更されると、撮像制御部62はZ方向駆動部28を制御し、オートフォーカスを実行する。よって、倍率が変更され、対物レンズ23のピント調整が完了したことをトリガーとして凹凸強調画像が生成されてもよい。 The detection unit 68 may detect that the focus adjustment of the objective lens 23 by manual or auto focus is completed. When the magnification of the objective lens 23 is changed, the imaging control unit 62 controls the Z direction drive unit 28 to execute auto focus. Therefore, the concave-convex emphasized image may be generated with the magnification changed and the completion of the focus adjustment of the objective lens 23 as a trigger.
UI部65は、さらに、ユーザーインタフェース70とは別にナビ画像を表示する別ウインドウを表示部2に表示してもよい。ナビ画像とは、倍率の低い対物レンズ23を用いて取得された観察対象物Wの画像などである。ユーザがナビ画像における観察部位をポインタ74で指定すると、UI部65は、ナビ画像における指定位置を載置台30の座標上の位置に変換し、載置台30を当該位置へ移動させる。これにより、簡単に観察部位を視野範囲内に収めることが可能となる。 The UI unit 65 may further display a separate window for displaying a navigation image on the display unit 2 separately from the user interface 70. The navigation image is, for example, an image of the observation object W acquired using the objective lens 23 having a low magnification. When the user designates the observation site in the navigation image with the pointer 74, the UI unit 65 converts the designated position in the navigation image into the coordinate position of the mounting table 30, and moves the mounting table 30 to the position. As a result, it becomes possible to easily fit the observation site within the visual field range.
深度合成部33は、複数の第一輝度画像を深度合成することで第一深度合成画像を生成するとともに、複数の第二輝度画像を深度合成することで第二深度合成画像を生成する深度合成部として機能する。凹凸強調部34は第一深度合成画像と第二深度合成画像との輝度の差分に基づき凹凸強調画像を生成する強調画像生成部として機能する。 The depth stacking unit 33 creates a first depth stacking image by depth stacking a plurality of first brightness images, and a depth stacking process that creates a second depth stacking image by depth stacking a plurality of second brightness images. Function as a department. The unevenness emphasizing unit 34 functions as an emphasized image generation unit that generates an unevenness emphasized image based on the difference in brightness between the first depth combined image and the second depth combined image.
深度合成部33は、複数の第一輝度画像においてそれぞれ画素位置が同じである複数の画素を解析し、複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置それぞれの合焦画素からなる第一深度合成画像を生成してもよい。なお、合焦度は、隣接した複数の画素からなる画素領域ごとに求められてもよい。深度合成部33は、複数の第二輝度画像においてそれぞれ画素位置が同じである複数の画素を解析し、複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置それぞれの合焦画素からなる第二深度合成画像を生成してもよい。 The depth synthesizing unit 33 analyzes a plurality of pixels having the same pixel position in each of the plurality of first luminance images, and determines the pixel with the highest degree of focusing among the plurality of pixels as the focused pixel at the pixel position. The selection may be performed to generate the first depth composite image including the in-focus pixels at each of a plurality of pixel positions. Note that the focus degree may be obtained for each pixel area including a plurality of adjacent pixels. The depth synthesizing unit 33 analyzes a plurality of pixels having the same pixel position in the plurality of second luminance images, and determines the pixel with the highest degree of focus among the plurality of pixels as the focus pixel at the pixel position. The selection may be performed to generate a second depth composite image including in-focus pixels at each of a plurality of pixel positions.
載置台30は、観察対象物Wを載置され、少なくともX方向とY方向とに移動可能なXYステージの一例である。載置台駆動部29はXYステージを駆動する駆動部の一例である。S12に関連して説明されたように、CPU61はXYステージが移動した後に静止したことを検知する検知部として機能してもよい。CPU61および画像プロセッサ66は、XYステージが移動した後に静止したことを検知部が検知すると、凹凸強調画像の生成を再度実行してもよい。これにより、ユーザは凹凸強調画像の生成を明示的に指示する手間を省略できるようになる。 The mounting table 30 is an example of an XY stage on which the observation object W is mounted and which is movable in at least the X direction and the Y direction. The mounting table drive unit 29 is an example of a drive unit that drives the XY stage. As described in relation to S12, the CPU 61 may function as a detection unit that detects that the XY stage has moved and then stopped. The CPU 61 and the image processor 66 may execute the generation of the unevenness-enhanced image again when the detection unit detects that the XY stage is stationary after moving. This allows the user to save the trouble of explicitly instructing the generation of the unevenness-enhanced image.
なお、検知部は、観察対象物Wの画像を基に判断してもよい。検知部は、前の時間と現在の時間とで差分が無いか、あるいは少ないときに、XYステージが停止したと判断してもよい。 The detection unit may make the determination based on the image of the observation object W. The detection unit may determine that the XY stage is stopped when there is no difference or a difference between the previous time and the current time.
CPU61によりXYステージが移動していることが検知されると、CPU61は、撮像部25により取得される動画像(ライブ画像)を表示部2に表示するように構成されていてもよい。CPU61はXYステージが静止したことを検知すると、画像プロセッサ66に凹凸強調画像の生成を再度実行させ、表示部2に凹凸強調画像を表示させてもよい。 When the CPU 61 detects that the XY stage is moving, the CPU 61 may be configured to display the moving image (live image) acquired by the imaging unit 25 on the display unit 2. When the CPU 61 detects that the XY stage is stationary, the CPU 61 may cause the image processor 66 to again generate the unevenness-enhanced image and display the unevenness-enhanced image on the display unit 2.
着色部36は、撮像部25により取得された観察対象物Wについてのカラー画像から色情報を取得して凹凸強調画像をカラー化するカラー合成部として機能してもよい。これにより、ユーザは凹凸と表面色との関係を理解しやすくなろう。 The coloring unit 36 may function as a color combining unit that acquires color information from the color image of the observation object W acquired by the imaging unit 25 and colorizes the unevenness-enhanced image. This makes it easier for the user to understand the relationship between the unevenness and the surface color.
画像プロセッサ66は、第一輝度画像を生成する際にそれぞれ露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで第一輝度画像を生成ししてもよい。同様に、画像プロセッサ66は、第二輝度画像を生成する際にそれぞれ露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで第二輝度画像を生成してもよい。このようにHDR処理を応用することで、白飛びや黒つぶれが軽減され、かつ、深度合成された凹凸強調画像が得られるようになる。 The image processor 66 acquires a plurality of sub-luminance images each having a different exposure time when generating the first luminance image, and performs HDR processing on the plurality of sub-luminance images to generate the first luminance image. Good. Similarly, the image processor 66 acquires a plurality of sub-luminance images each having a different exposure time when generating the second luminance image, and performs a HDR process on the plurality of sub-luminance images to generate the second luminance image. May be. By applying the HDR processing in this way, it is possible to reduce whiteout and underexposure and obtain a depth-combined unevenness-enhanced image.
高さ画像生成部35は、凹凸強調画像の各画素を積分することで各画素ごとに観察対象物の表面の高さを求め、当該高さを各画素とする高さ画像を生成してもよい。さらに、高さ画像生成部35は、高さ画像の各画素を、各画素の高さに応じて着色することでカラー高さ画像を生成してもよい。これにより、クレーター錯視が発生しにくくなり、ユーザはより正確に凹形状と凸形状とを区別できるようになろう。 The height image generation unit 35 obtains the height of the surface of the observation target for each pixel by integrating each pixel of the unevenness-enhanced image, and generates a height image having the height as each pixel. Good. Further, the height image generation unit 35 may generate a color height image by coloring each pixel of the height image according to the height of each pixel. This makes it difficult for the crater illusion to occur, and allows the user to more accurately distinguish between the concave shape and the convex shape.
マウス4、コンソール部3およびCPU61は照明部の照明方向を選択する選択部として機能してもよい。画像プロセッサ66は、照明部を制御することで観察対象物Wに対して第一照明方向および第二照明方向と異なる第三照明方向から照明光を観察対象物Wに対して照射し、変化部と撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで観察対象物を撮像することで複数の第三輝度画像を取得してもよい。画像プロセッサ66は、照明部を制御することで観察対象物に対して第三照明方向に対して光軸を挟んで対称となる第四照明方向から照明光を観察対象物に対して照射し、変化部と撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで観察対象物を撮像することで複数の第四輝度画像を取得してもよい。さらに、画像プロセッサ66は、第一照明方向、第二照明方向、第三照明方向および第四照明方向のうち選択部により選択された照明方向に対応した凹凸強調画像を、複数の第一輝度画像、複数の第二輝度画像、複数の第三輝度画像および複数の第四輝度画像のうち選択部により選択された照明方向に対応した複数の輝度画像を用いて生成してもよい。表示部2は、選択部により選択された照明方向に対応した凹凸強調画像を表示してもよい。 The mouse 4, the console unit 3, and the CPU 61 may function as a selection unit that selects the illumination direction of the illumination unit. The image processor 66 irradiates the observation target W with illumination light from a third illumination direction different from the first illumination direction and the second illumination direction by controlling the illumination unit, and the changing unit. The plurality of third luminance images may be acquired by controlling the image capturing unit and capturing the observation target object at each of a plurality of different focus positions. The image processor 66 irradiates the observation object with illumination light from a fourth illumination direction that is symmetrical with respect to the third illumination direction with respect to the third illumination direction by controlling the illumination unit. You may acquire a some 4th brightness|luminance image by controlling a change part and an image pick-up part, and image|photographing an observation target object in each of a plurality of different focus positions, respectively. Further, the image processor 66 outputs a plurality of first luminance images, the unevenness-enhanced image corresponding to the illumination direction selected by the selection unit among the first illumination direction, the second illumination direction, the third illumination direction and the fourth illumination direction. Alternatively, it may be generated using a plurality of brightness images corresponding to the illumination direction selected by the selection unit among the plurality of second brightness images, the plurality of third brightness images, and the plurality of fourth brightness images. The display unit 2 may display the unevenness-enhanced image corresponding to the illumination direction selected by the selection unit.
凹凸強調部34は、複数の第一輝度画像と複数の第二輝度画像とからそれぞれ合焦位置が同じである輝度画像のペアを輝度の差分に基づき合成して、複数の合焦位置のそれぞれについて凹凸の強調された複数のサブ凹凸強調画像を生成してもよい。深度合成部33は、複数のサブ凹凸強調画像を深度合成することで、深度合成された凹凸強調画像を生成する深度合成画像生成部として機能してもよい。このように凹凸強調と深度合成との順番はどちらが先であってもよい。 The unevenness emphasizing unit 34 synthesizes a pair of brightness images having the same in-focus position from the plurality of first brightness images and the plurality of second brightness images based on the difference in brightness, and then combines each of the plurality of focus positions. A plurality of sub unevenness-enhanced images in which unevenness is emphasized may be generated. The depth synthesis unit 33 may function as a depth synthesis image generation unit that generates a depth-synthesized unevenness-enhanced image by depth-synthesizing a plurality of sub-unevenness-enhanced images. As described above, the order of the embossing and the depth stacking may be first.
照明部は、対物レンズ23の周囲に配置されたリング照明26でああってもよい。照明部は、対物レンズ23を通じて照明光を観察対象物Wに照射する、ヘッド部22の内部に設けられた照明光源であってもよい。 The illumination unit may be a ring illumination 26 arranged around the objective lens 23. The illumination unit may be an illumination light source provided inside the head unit 22 that illuminates the observation object W with illumination light through the objective lens 23.
Claims (15)
少なくともX方向とY方向とに前記光学系に対して相対的に移動可能なXYステージと、
前記光学系に対する前記XYステージの相対的な移動を検知する検知部と、
前記XYステージに載置された観察対象物に対してそれぞれ異なる方向から照明光を照射する照明部と、
前記光学系を介して前記観察対象物からの光を受光して前記観察対象物の輝度画像を生成する撮像部と、
前記光学系の光軸に沿って前記光学系の合焦位置を変化させる変化部と、
前記照明部、前記撮像部および前記変化部を制御する制御部と、
前記観察対象物の画像である観察画像を表示する表示部と
を有し、
前記制御部は、
前記照明部を制御することで前記観察対象物に対して第一照明方向から前記照明光を前記観察対象物に対して照射し、前記変化部と前記撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで前記観察対象物を撮像することで複数の第一輝度画像を取得し、
前記照明部を制御することで前記観察対象物に対して前記第一照明方向に対して前記光軸を挟んで対称となる第二照明方向から前記照明光を前記観察対象物に対して照射し、前記変化部と前記撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで前記観察対象物を撮像することで複数の第二輝度画像を取得し、
前記複数の第一輝度画像と前記複数の第二輝度画像とについて凹凸強調することで前記観察対象物の表面の凹凸が強調された凹凸強調画像を生成する画像生成部
を有し、
前記表示部は、
前記検知部が前記XYステージの相対的な移動を検知している間は、前記観察画像として、前記撮像部により取得された前記観察対象物の動画像を表示し、
前記検知部が前記XYステージの相対的な移動の停止を検知すると、前記観察画像として、前記XYステージの相対的な移動の停止後に前記画像生成部により生成された前記凹凸強調画像を表示することを特徴とする拡大観察装置。 An optical system including an objective lens and an imaging lens,
An XY stage movable relative to the optical system in at least the X and Y directions;
A detection unit for detecting relative movement of the XY stage with respect to the optical system;
An illumination unit that illuminates the observation target placed on the XY stage with illumination light from different directions;
An imaging unit that receives light from the observation object through the optical system and generates a brightness image of the observation object,
A changing unit that changes a focus position of the optical system along the optical axis of the optical system,
A control unit that controls the illumination unit, the imaging unit, and the changing unit;
A display unit for displaying an observation image that is an image of the observation object,
The control unit is
By irradiating the observation object with the illumination light from the first illumination direction by controlling the illumination unit, the changing unit and the image capturing unit are controlled so that a plurality of different combinations are obtained. Obtaining a plurality of first luminance images by imaging the observation object at each of the focal positions,
By irradiating the observation object with the illumination light from a second illumination direction that is symmetric with respect to the first illumination direction with respect to the first illumination direction by controlling the illumination unit. , A plurality of second luminance images are obtained by imaging the observation object at each of a plurality of different focusing positions by controlling the changing unit and the imaging unit,
The plurality of first luminance image and the plurality of second luminance image having an image generating unit that generates a concave-convex emphasized image in which the concave-convex of the surface of the observation object is emphasized by embossing the concave-convex.
The display unit is
While the detection unit is detecting the relative movement of the XY stage, a moving image of the observation object acquired by the imaging unit is displayed as the observation image,
When the detection unit detects that the relative movement of the XY stage is stopped, the unevenness-enhanced image generated by the image generation unit after the relative movement of the XY stage is stopped is displayed as the observation image. Magnification observation device characterized by.
前記表示部は、
前記検知部が前記XYステージの相対的な移動を検知している間は、前記観察画像として、前記撮像部により取得された前記観察対象物の動画像を表示し、
前記検知部が前記XYステージの相対的な移動の停止と、前記光学系の倍率の変更とを検知すると、前記観察画像として、前記XYステージの相対的な移動の停止と前記倍率の変更後に前記画像生成部により生成された前記凹凸強調画像を表示することを特徴とする請求項1に記載の拡大観察装置。 The detection unit is configured to further detect a change in magnification of the optical system,
The display unit is
While the detection unit is detecting the relative movement of the XY stage, a moving image of the observation object acquired by the imaging unit is displayed as the observation image,
When the detection unit detects that the relative movement of the XY stage is stopped and the magnification of the optical system is changed, the observation image is displayed after the relative movement of the XY stage is stopped and the magnification is changed. The magnifying observation apparatus according to claim 1, wherein the unevenness-enhanced image generated by the image generation unit is displayed.
前記複数の第一輝度画像を深度合成することで第一深度合成画像を生成するとともに、前記複数の第二輝度画像を深度合成することで第二深度合成画像を生成する深度合成部と、
前記第一深度合成画像と前記第二深度合成画像との輝度の差分に基づき前記凹凸強調画像を生成する強調画像生成部と
を有することを特徴とする請求項1ないし3のいずれか一項に記載の拡大観察装置。 The image generation unit,
A depth synthesizing unit that generates a second depth synthesizing image by depth synthesizing the plurality of second luminance images while generating a first depth synthesizing image by depth synthesizing the plurality of first luminance images.
4. The enhanced image generation unit that generates the unevenness enhanced image based on a difference in luminance between the first depth synthetic image and the second depth synthetic image, and the enhanced image generation unit according to claim 1. The magnifying observation device described.
前記複数の第一輝度画像においてそれぞれ画素位置が同じである複数の画素を解析し、前記複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置のそれぞれ合焦画素からなる前記第一深度合成画像を生成し、
前記複数の第二輝度画像においてそれぞれ画素位置が同じである複数の画素を解析し、前記複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置のそれぞれ合焦画素からなる前記第二深度合成画像を生成するように構成されていることを特徴とする請求項4に記載の拡大観察装置。 The depth combination unit,
By analyzing a plurality of pixels having the same pixel position in each of the plurality of first luminance images and selecting a pixel having the highest degree of focusing among the plurality of pixels as a focused pixel at the pixel position. , Generating the first depth composite image composed of focused pixels at a plurality of pixel positions,
By analyzing a plurality of pixels having the same pixel position in each of the plurality of second luminance images and selecting the pixel having the highest degree of focusing among the plurality of pixels as the focused pixel at the pixel position. The magnifying observation apparatus according to claim 4, wherein the magnifying observation apparatus is configured to generate the second depth composite image including focused pixels at a plurality of pixel positions.
前記第一輝度画像を生成する際にそれぞれ露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで前記第一輝度画像を生成し、
前記第二輝度画像を生成する際にそれぞれ露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで前記第二輝度画像を生成するように構成されていることを特徴とする請求項1ないし6のいずれか一項に記載の拡大観察装置。 The image generation unit,
Acquiring a plurality of sub-luminance images each having a different exposure time when generating the first luminance image, and generating the first luminance image by performing HDR processing on the plurality of sub-luminance images,
When generating the second luminance image, a plurality of sub-luminance images having different exposure times are acquired, and the second luminance image is generated by performing HDR processing on the plurality of sub-luminance images. The magnifying observation apparatus according to any one of claims 1 to 6, wherein
前記画像生成部は、
前記照明部を制御することで前記観察対象物に対して前記第一照明方向および前記第二照明方向と異なる第三照明方向から前記照明光を前記観察対象物に対して照射し、前記変化部と前記撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで前記観察対象物を撮像することで複数の第三輝度画像を取得し、
前記照明部を制御することで前記観察対象物に対して前記第三照明方向に対して前記光軸を挟んで対称となる第四照明方向から前記照明光を前記観察対象物に対して照射し、前記変化部と前記撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで前記観察対象物を撮像することで複数の第四輝度画像を取得し、
前記画像生成部は、さらに、前記第一照明方向、前記第二照明方向、前記第三照明方向および前記第四照明方向のうち前記選択部により選択された照明方向に対応した凹凸強調画像を、前記複数の第一輝度画像、前記複数の第二輝度画像、前記複数の第三輝度画像および前記複数の第四輝度画像のうち前記選択部により選択された照明方向に対応した複数の輝度画像を用いて生成し、
前記表示部は、前記選択部により選択された照明方向に対応した凹凸強調画像を表示するように構成されていることを特徴とする請求項1ないし9のいずれか一項に記載の拡大観察装置。 Further comprising a selection unit for selecting an illumination direction of the illumination unit,
The image generation unit,
By irradiating the observation object with the illumination light from the third illumination direction different from the first illumination direction and the second illumination direction by controlling the illumination unit, the changing unit And a plurality of third luminance images are acquired by controlling the image capturing unit and capturing the observation object at each of a plurality of different focus positions.
By irradiating the observation object with the illumination light from a fourth illumination direction that is symmetrical with respect to the third illumination direction with respect to the third illumination direction with respect to the third illumination direction by controlling the illumination unit. , Acquiring a plurality of fourth luminance images by imaging the observation object at each of a plurality of different focus positions by controlling the changing unit and the imaging unit,
The image generation unit, further, the unevenness emphasized image corresponding to the illumination direction selected by the selection unit among the first illumination direction, the second illumination direction, the third illumination direction and the fourth illumination direction, A plurality of brightness images corresponding to the illumination direction selected by the selection unit among the plurality of first brightness images, the plurality of second brightness images, the plurality of third brightness images and the plurality of fourth brightness images. Generated using
10. The magnifying observation apparatus according to claim 1, wherein the display unit is configured to display an unevenness-enhanced image corresponding to the illumination direction selected by the selection unit. ..
前記複数の第一輝度画像と前記複数の第二輝度画像とからそれぞれ合焦位置が同じである輝度画像のペアを輝度の差分に基づき合成して、前記複数の合焦位置のそれぞれについて凹凸の強調された複数の強調画像を生成する強調画像生成部と、
前記複数の強調画像を深度合成することで前記凹凸強調画像を生成する深度合成画像生成部と
を有することを特徴とする請求項1に記載の拡大観察装置。 The image generation unit,
From the plurality of first luminance images and the plurality of second luminance images, a pair of luminance images having the same in-focus position is synthesized based on the difference in luminance, and unevenness is formed for each of the plurality of in-focus positions. An emphasized image generation unit that generates a plurality of emphasized images, and
The magnifying observation apparatus according to claim 1, further comprising: a depth-combined image generation unit that generates the unevenness-enhanced image by depth-compositing the plurality of emphasized images.
少なくともX方向とY方向とに前記光学系に対して相対的に移動可能なXYステージと、
前記XYステージに載置された観察対象物に対してそれぞれ異なる方向から照明光を照射する照明部と、
前記光学系を介して前記観察対象物からの光を受光して前記観察対象物の輝度画像を生成する撮像部と、
前記光学系の光軸に沿って前記光学系の合焦位置を変化させる変化部と、
前記照明部、前記撮像部および前記変化部を制御する制御部と、
前記観察対象物の画像である観察画像を表示する表示部と、
前記光学系を用いた前記観察対象物に対する観察状態の変化を検知する検知部と、
を有し、
前記制御部は、
前記照明部を制御することで前記観察対象物に対して第一照明方向から前記照明光を前記観察対象物に対して照射し、前記変化部と前記撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで前記観察対象物を撮像することで複数の第一輝度画像を取得し、
前記照明部を制御することで前記観察対象物に対して前記第一照明方向に対して前記光軸を挟んで対称となる第二照明方向から前記照明光を前記観察対象物に対して照射し、前記変化部と前記撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで前記観察対象物を撮像することで複数の第二輝度画像を取得し、
前記複数の第一輝度画像と前記複数の第二輝度画像とについて凹凸強調することで前記観察対象物の表面の凹凸が強調された凹凸強調画像を生成する画像生成部
を有し、
前記表示部は、
前記検知部が前記観察対象物に対する観察状態の変化を検知している間は、前記観察画像として、前記撮像部により取得された前記観察対象物の動画像を表示し、
前記検知部が前記観察対象物に対する観察状態の変化の停止を検知すると、前記観察画像として、前記観察対象物に対する観察状態の変化の停止後に前記画像生成部により生成された前記凹凸強調画像を表示することを特徴とする拡大観察装置。 An optical system including an objective lens and an imaging lens,
An XY stage movable relative to the optical system in at least the X and Y directions;
An illumination unit that illuminates the observation target placed on the XY stage with illumination light from different directions;
An imaging unit that receives light from the observation object through the optical system and generates a brightness image of the observation object,
A changing unit that changes a focus position of the optical system along the optical axis of the optical system,
A control unit that controls the illumination unit, the imaging unit, and the changing unit;
A display unit that displays an observation image that is an image of the observation object,
A detection unit that detects a change in the observation state for the observation target using the optical system,
Have
The control unit is
By irradiating the observation object with the illumination light from the first illumination direction by controlling the illumination unit, the changing unit and the image capturing unit are controlled so that a plurality of different combinations are obtained. Obtaining a plurality of first luminance images by imaging the observation object at each of the focal positions,
By irradiating the observation object with the illumination light from a second illumination direction that is symmetric with respect to the first illumination direction with respect to the first illumination direction by controlling the illumination unit. , A plurality of second luminance images are obtained by imaging the observation object at each of a plurality of different focusing positions by controlling the changing unit and the imaging unit,
The plurality of first luminance image and the plurality of second luminance image having an image generating unit that generates a concave-convex emphasized image in which the concave-convex of the surface of the observation object is emphasized by embossing the concave-convex.
The display unit is
While the detection unit is detecting a change in the observation state of the observation target, as the observation image, a moving image of the observation target acquired by the imaging unit is displayed,
When the detection unit detects the stop of the change of the observation state for the observation target object, the unevenness-enhanced image generated by the image generation unit after the stop of the change of the observation state for the observation target object is displayed as the observation image. A magnifying observation device characterized by:
前記変化部による合焦位置の変化と、
前記XYステージの移動と、
前記照明部による照明の切替えと、
前記光学系の光軸と前記観察対象物との相対的な角度の変化と
のうち少なくとも一つを含むことを特徴とする請求項14に記載の拡大観察装置。 The change in the observation state detected by the detection unit is
A change in the focus position by the change unit,
Movement of the XY stage,
Switching of lighting by the lighting unit,
The magnifying observation apparatus according to claim 14, further comprising at least one of a change in a relative angle between the optical axis of the optical system and the observation target.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018223948A JP2020086294A (en) | 2018-11-29 | 2018-11-29 | Magnification observation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018223948A JP2020086294A (en) | 2018-11-29 | 2018-11-29 | Magnification observation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020086294A true JP2020086294A (en) | 2020-06-04 |
Family
ID=70907930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018223948A Pending JP2020086294A (en) | 2018-11-29 | 2018-11-29 | Magnification observation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020086294A (en) |
-
2018
- 2018-11-29 JP JP2018223948A patent/JP2020086294A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6029394B2 (en) | Shape measuring device | |
US8982457B2 (en) | Microscope system and illumination intensity adjusting method | |
JP6325816B2 (en) | Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium | |
JP6325815B2 (en) | Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium | |
JP6487156B2 (en) | Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium | |
JP2013068738A (en) | Magnifying observation device, and image display method, microscopic examination method and switching method for magnifying observation device | |
JP7268991B2 (en) | Magnifying observation device | |
JP2004153462A (en) | Magnifying observation apparatus, operating method of the magnifying observation apparatus, magnifying observation apparatus operating program, and computer-readable recording medium | |
JP6279048B2 (en) | Shape measuring device | |
US10816783B2 (en) | Magnifying observation apparatus | |
JP7268992B2 (en) | Magnifying observation device | |
JP2020086294A (en) | Magnification observation device | |
JP6355334B2 (en) | Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium | |
US20220269062A1 (en) | Magnified observation apparatus | |
JP7251957B2 (en) | Magnifying observation device | |
JP2015127769A (en) | Device, method, and program for magnifying observation, and computer readable recording medium | |
JP2022127537A (en) | Enlarging observation device, enlarged image observation method, enlarged image observation program, and computer-readable recording medium, and apparatus storing program | |
JP6486713B2 (en) | Magnifying observation apparatus, setting method of magnifying observation apparatus, and program | |
US10539775B2 (en) | Magnifying observation apparatus | |
JP2022127539A (en) | Enlarging observation device, enlarged image observation method, enlarged image observation program, and computer-readable recording medium, and apparatus storing program | |
JP6062028B2 (en) | Magnification observation apparatus and magnification observation method | |
JP2020086296A (en) | Magnifying observation device | |
JP6635893B2 (en) | Magnifying observation device | |
JP6928533B2 (en) | Magnifying observation device | |
US20220269061A1 (en) | Magnified observation apparatus, magnified observation method, and non-transitory computer-readable storage medium or storage device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210113 |