[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020034732A - Magnifying observation device - Google Patents

Magnifying observation device Download PDF

Info

Publication number
JP2020034732A
JP2020034732A JP2018161297A JP2018161297A JP2020034732A JP 2020034732 A JP2020034732 A JP 2020034732A JP 2018161297 A JP2018161297 A JP 2018161297A JP 2018161297 A JP2018161297 A JP 2018161297A JP 2020034732 A JP2020034732 A JP 2020034732A
Authority
JP
Japan
Prior art keywords
unit
objective lens
observation
image
view image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018161297A
Other languages
Japanese (ja)
Other versions
JP7137406B2 (en
Inventor
直樹 垪和
Naoki Haga
直樹 垪和
亮介 近藤
Ryosuke Kondo
亮介 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2018161297A priority Critical patent/JP7137406B2/en
Publication of JP2020034732A publication Critical patent/JP2020034732A/en
Application granted granted Critical
Publication of JP7137406B2 publication Critical patent/JP7137406B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

To allow for making full use of autofocus capability while avoiding collision of an objective lens with an object under observation.SOLUTION: A magnifying observation device provided herein is configured to: acquire a side-view image of an object 100 under observation including at least a top surface thereof; acquire position-related information of an objective lens 25 and the object 100 under observation; and search for a focal point of the objective lens using the position-related information and a magnified observation image.SELECTED DRAWING: Figure 21

Description

本発明は、観察対象物を撮像して表示部に拡大表示する拡大観察装置に関する。   The present invention relates to a magnifying observation apparatus that images an observation target and magnifies and displays the image on a display unit.

例えば、微小物体等の試料や電子部品、被加工物等のワークを拡大して表示する拡大観察装置として、観察対象物からの反射光や透過光が入射する光学系と、二次元状に配置された多数の受光素子とを備え、光学系を介して入射した光を受光素子で受光し、各受光素子の受光量を検出して観察対象物の画像を生成し、ディスプレイに拡大表示するように構成された拡大観察装置が知られている。このような拡大観察装置は、例えば特許文献1に開示されており、光学顕微鏡とは区別してデジタルマイクロスコープ等と呼ばれることがある。   For example, as a magnifying observation device that magnifies and displays a work such as a sample such as a minute object, an electronic component, or a workpiece, a two-dimensional arrangement is provided with an optical system that receives reflected light or transmitted light from the observed object The light receiving element receives light incident through the optical system, detects the amount of light received by each light receiving element, generates an image of the observation target, and enlarges and displays the image on the display. Is known. Such a magnifying observation apparatus is disclosed, for example, in Patent Document 1, and is sometimes called a digital microscope or the like in distinction from an optical microscope.

特許文献1のデジタルマイクロスコープは、試料の拡大観察用画像を撮像する顕微鏡イメージセンサとは別に、試料の二次元概観画像を撮像するための監視センサを備えている。この監視センサにより取得された概観画像に基づいて、試料が試料台上で正しく位置決めされているか否かを自動的にチェックしたり、所望の観察位置に到達するまで試料をX方向、Y方向に移動させたり、概観画像内の領域を指定し、その領域の所望観察倍率を選択することができるようになっている。   The digital microscope disclosed in Patent Literature 1 includes a monitoring sensor for capturing a two-dimensional overview image of a sample, in addition to a microscope image sensor for capturing an image for magnifying observation of the sample. Based on the overview image acquired by this monitoring sensor, it is automatically checked whether or not the sample is correctly positioned on the sample stage, and the sample is moved in the X and Y directions until it reaches a desired observation position. The user can move or specify an area in the overview image, and select a desired observation magnification of the area.

特開2014−211626号公報JP 2014-216626 A

ところで、顕微鏡で観察する際にはピント合わせが不可欠であるが、デジタルマイクロスコープでは、各受光素子の受光量から観察対象物の画像を取得できるので、従来からあるコントラストオートフォーカスや位相差オートフォーカスの手法によって自動で焦点を合わせることができるという利点がある。   By the way, focusing is indispensable when observing with a microscope, but with a digital microscope, an image of the observation target can be acquired from the amount of light received by each light receiving element. There is an advantage that the focus can be automatically adjusted by the method (1).

焦点を合わせる際には対物レンズを動かして観察対象物との距離を変化させる必要がある。このとき対物レンズを観察対象物に近づける方向に動かしていくと、途中で焦点が合った場合には対物レンズは停止するが、焦点が合わなかった場合には対物レンズの先端が観察対象物に衝突するまで当該対物レンズが動いてしまい、その結果、対物レンズや観察対象物の破損を招くおそれがある。そのため、従来のデジタルマイクロスコープにおけるオートフォーカスでは、観察準備が完了した位置(初期位置)にある対物レンズを観察対象物から遠ざかる方向に動かして焦点を合わせるのが一般的であった。   When focusing, it is necessary to move the objective lens to change the distance to the observation target. At this time, if the objective lens is moved in the direction of approaching the observation object, the objective lens stops if it is in the middle of the way, but if the focus is not achieved, the tip of the objective lens is moved to the observation object. The objective lens moves until the collision occurs, and as a result, the objective lens and the observation target may be damaged. For this reason, in the conventional autofocusing of a digital microscope, it is common to move an objective lens at a position (initial position) where observation preparation is completed in a direction away from an observation target to focus.

ところが、対物レンズの初期位置が焦点の合う範囲よりも観察対象物から離れている場合も考えられ、この場合、対物レンズを観察対象物から遠ざかる方向に動かしたのでは、焦点を合わせることができない。つまり、オートフォーカスの機能を十分に活かすことができない場面が想定される。   However, it is also conceivable that the initial position of the objective lens is farther from the observation target than the in-focus range. In this case, if the objective lens is moved away from the observation target, the focus cannot be adjusted. . That is, it is assumed that the autofocus function cannot be fully utilized.

ここで、特許文献1のデジタルマイクロスコープでは、概観画像を、試料の位置決めチェック、X方向、Y方向の移動時のガイド、指定領域の倍率選択等に利用するに留まっており、概観画像をピント合わせに利用するという考えはなく、上述したように、オートフォーカスの機能を十分に活かすことができない場面が想定される構成となっている。   Here, in the digital microscope of Patent Document 1, the overview image is used only for checking the positioning of the sample, guiding the movement in the X and Y directions, selecting the magnification of the designated area, and the like. There is no idea of using the automatic focusing function, and as described above, a configuration in which a scene in which the function of the autofocus cannot be fully utilized is assumed.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、対物レンズと観察対象物との衝突を回避しながら、オートフォーカスの機能を十分に活かすことができるようにすることにある。   The present invention has been made in view of such a point, and an object of the present invention is to make it possible to fully utilize an autofocus function while avoiding a collision between an objective lens and an observation target. It is in.

上記目的を達成するために、本発明では、観察対象物に照明光を照射し、該照明光の前記観察対象物からの反射光又は透過光の受光量を検出して前記観察対象物の画像を生成し、拡大観察可能に表示する拡大観察装置において、ベース部と、前記ベース部に支持され、前記観察対象物を載置するための載置部と、前記照明光の前記観察対象物からの反射光又は透過光が入射する対物レンズと、前記載置部または前記対物レンズを互いに接近する方向と離れる方向とに移動させる駆動部と、前記反射光又は透過光を、前記対物レンズを介して受光して第1の画像を取得する第1の撮像手段と、前記載置部または前記観察対象物の方を向き、かつ、前記第1の撮像手段の光軸と異なる光軸を有するように設けられ、前記観察対象物の少なくとも上端を含む第2の画像を取得するための第2の撮像手段と、前記第2の撮像手段で取得された前記第2の画像に基づいて前記観察対象物の上端の位置関係情報を取得する画像処理部と、前記画像処理部で取得された前記位置関係情報と、前記第1の撮像手段で取得された前記第1の画像とに基づいて前記駆動部を制御し、前記対物レンズの焦点を探索するオートフォーカス部と、前記第1の撮像手段で取得された前記第1の画像を表示可能な表示部とを備えていることを特徴とする。   In order to achieve the above object, in the present invention, an observation object is irradiated with illumination light, and an amount of reflected light or transmitted light of the illumination light from the observation object is detected and an image of the observation object is detected. In the magnifying observation apparatus that generates and displays a magnified observation, a base portion, a mounting portion supported by the base portion, and a mounting portion for mounting the observation target object, from the observation target object of the illumination light An objective lens on which reflected light or transmitted light is incident, and a driving unit that moves the mounting section or the objective lens in a direction approaching and moving away from each other, and the reflected light or transmitted light is transmitted through the objective lens. A first imaging unit for receiving the first image and receiving the first image, and facing the placement unit or the observation object, and having an optical axis different from the optical axis of the first imaging unit. At least above the observation object A second imaging unit for acquiring a second image including: and an image for acquiring positional relationship information of an upper end of the observation target based on the second image acquired by the second imaging unit A processing unit, controlling the driving unit based on the positional relationship information acquired by the image processing unit and the first image acquired by the first imaging unit, and adjusting a focal point of the objective lens. It is characterized by comprising an autofocus unit for searching, and a display unit capable of displaying the first image acquired by the first imaging unit.

この構成によれば、載置部に載置された観察対象物に照射された照明光は、当該観察対象物から反射して対物レンズに入射する。また、観察対象物が透光性を有していて透過照明によって照明されている場合には、観察対象物からの透過光が対物レンズに入射する。対物レンズに入射した光は、第1の撮像手段により受光されて第1の画像が取得される。   According to this configuration, the illumination light applied to the observation target placed on the mounting portion is reflected from the observation target and enters the objective lens. Further, when the observation target has a light-transmitting property and is illuminated by the transmission illumination, the transmitted light from the observation target enters the objective lens. The light that has entered the objective lens is received by the first imaging unit, and a first image is obtained.

一方、第1の撮像手段とは別に設けられている第2の撮像手段は、載置部または観察対象物の方を向いているので、それらを第2の画像として取得することが可能になる。取得された第2の画像には観察対象物の上端が含まれているので、画像処理部において、第2の画像に基づいて観察対象物の上端の位置関係情報を取得することが可能になる。オートフォーカス部は、観察対象物の上端の位置関係情報に基づいて駆動部を制御して載置部または対物レンズを互いに接近する方向や離れる方向に移動させることができる。これにより、対物レンズと観察対象物との衝突を回避しながら焦点を合わせることが可能になり、ピントの合った第1の画像を表示部に表示して観察対象物の拡大観察が行えるようになる。   On the other hand, since the second imaging means provided separately from the first imaging means faces the mounting portion or the observation target, it is possible to acquire them as the second image. . Since the acquired second image includes the upper end of the observation target, the image processing unit can acquire positional relationship information of the upper end of the observation target based on the second image. . The autofocus unit can control the driving unit based on the positional relationship information of the upper end of the observation target to move the mounting unit or the objective lens in a direction toward or away from each other. This makes it possible to focus on the object while avoiding collision between the objective lens and the object to be observed, so that the focused first image is displayed on the display unit so that the observation object can be enlarged and observed. Become.

第2の発明は、前記オートフォーカス部は、前記位置関係情報を用いて、前記載置部または前記対物レンズの移動に対して移動を規制する方向に、前記駆動部を制御するように構成されていることを特徴とする。   In a second aspect, the autofocus unit is configured to control the drive unit in a direction that regulates movement of the mounting unit or the objective lens using the positional relationship information. It is characterized by having.

すなわち、対物レンズと観察対象物との位置関係情報を予め取得しているので、載置部と対物レンズとを互いに近づける方向に駆動部を制御したとしても、対物レンズと観察対象物との衝突を回避することができる。これにより、観察準備が完了したときの対物レンズの位置が焦点の合う範囲よりも観察対象物から離れている場合であっても、オートフォーカスによって焦点を合わせることができる。   That is, since the positional relationship information between the objective lens and the observation target is obtained in advance, even if the driving unit is controlled in a direction in which the mounting unit and the objective lens are brought closer to each other, the collision between the objective lens and the observation target may be performed. Can be avoided. Thereby, even when the position of the objective lens when the preparation for the observation is completed is farther from the observation target than the in-focus range, the focus can be adjusted by the autofocus.

第3の発明は、前記第2の画像に含まれている前記観察対象物の上面をエッジとして抽出するエッジ抽出処理を行うエッジ抽出部を備え、前記画像処理部は、前記エッジ抽出部で抽出されたエッジを使用して前記位置関係情報を取得することを特徴とする。   A third invention includes an edge extraction unit that performs an edge extraction process of extracting an upper surface of the observation target object included in the second image as an edge, wherein the image processing unit extracts the image by the edge extraction unit. The positional relationship information is obtained by using the obtained edge.

この構成によれば、第2の画像には観察対象物の上面が含まれており、観察対象物の上面をエッジとして抽出することで観察対象物の上面の位置を把握することができるので、対物レンズと観察対象物の上面との位置関係情報を正確に取得できる。   According to this configuration, the second image includes the upper surface of the observation target, and the position of the upper surface of the observation target can be grasped by extracting the upper surface of the observation target as an edge. The positional relationship information between the objective lens and the upper surface of the observation target can be accurately obtained.

第4の発明は、前記拡大観察装置は、リング照明と同軸落射照明とを備えており、前記エッジ抽出部が前記エッジ抽出処理を行う前記第2の画像を前記第2の撮像手段が取得するときに、前記同軸落射照明で前記観察対象物を照明することを特徴とする。   In a fourth aspect, the magnifying observation apparatus includes a ring illumination and a coaxial epi-illumination, and the second imaging unit acquires the second image on which the edge extraction unit performs the edge extraction processing. Sometimes, the observation object is illuminated with the coaxial epi-illumination.

この構成によれば、同軸落射照明により、観察面の反射率の違いをコントラスト高く観察することができ、また、リング照明により、凹凸の大きい観察面や同軸落射照明では光が返って来ないような傾斜面も明るく照明することができる。よって、複数種の照明手段を備えていることで、観察対象物の対応範囲が拡大する。   According to this configuration, the difference in the reflectance of the observation surface can be observed with high contrast by the coaxial epi-illumination, and the ring illumination prevents light from returning on the observation surface or the coaxial epi-illumination with large irregularities. It can also illuminate brightly inclined surfaces. Therefore, the provision of a plurality of types of illumination means expands the corresponding range of the observation target.

ここで、リング照明の場合、第1の撮像手段の光軸と異なる光軸を有する第2の撮像手段で撮像すると、ハレーションが起こりやすく、第2の画像によるエッジ抽出処理が難しくなることがあるが、本発明のように同軸落射照明で照明して第2の画像を取得すれば、ハレーションが起こり難くなり、エッジ抽出処理が容易に行えるようになる。   Here, in the case of ring illumination, if an image is picked up by the second image pickup unit having an optical axis different from the optical axis of the first image pickup unit, halation is likely to occur, and the edge extraction processing using the second image may be difficult. However, if the second image is acquired by illuminating with coaxial epi-illumination as in the present invention, halation is unlikely to occur, and edge extraction processing can be easily performed.

第5の発明は、前記第2の撮像手段は、前記載置部が第1の位置にあるときに前記第2の画像を取得し、前記駆動部により前記載置部を前記第1の位置から第2の位置に動かした後に前記第2の画像を取得し、前記エッジ抽出部は、前記載置部が前記第1の位置にあるときの前記第2の画像と、前記第2の位置にあるときの前記第2の画像とに基づいてエッジ抽出処理を行うように構成されていることを特徴とする。   In a fifth aspect, the second imaging means acquires the second image when the placement section is at the first position, and moves the placement section to the first position by the driving section. Acquiring the second image after moving from the second position to the second position, wherein the edge extracting unit includes the second image when the placement unit is at the first position, and the second position , The edge extraction processing is performed based on the second image.

すなわち、第2の撮像手段の光軸は、拡大観察用の画像を取得する第1の撮像手段の光軸とは別の方向を向いているので、第2の画像には観察対象物の上面以外にも背景が含まれることになり、エッジ抽出部がエッジ抽出処理を行う際に背景をエッジ抽出処理の対象としてしまうおそれがある。この発明では、載置部が動く前の第2の画像と、動いた後の第2の画像とを取得するので、両画像に含まれている背景の位置は変わらず、観察対象物の上面の位置が変化することになり、このような位置の変化を画像処理によって得ることで、背景と観察対象物の上面との区別が可能になる。従って、観察対象物の上面のエッジ抽出が正確に行われる。   That is, since the optical axis of the second imaging unit is oriented in a different direction from the optical axis of the first imaging unit that acquires an image for magnifying observation, the second image includes the upper surface of the observation target. In addition, the background may be included, and the edge may be subjected to the edge extraction processing when the edge extraction unit performs the edge extraction processing. According to the present invention, the second image before the mounting portion moves and the second image after the mounting portion move are obtained. Therefore, the position of the background included in both images does not change, and the upper surface of the observation target is not changed. Is changed, and by obtaining such a change in the position by image processing, the background can be distinguished from the upper surface of the observation object. Therefore, the edge of the upper surface of the observation target is extracted accurately.

第6の発明は、前記第2の撮像手段は、前記対物レンズの下端部を含む第2の画像を取得し、前記エッジ抽出部は、前記第2の画像に含まれている前記対物レンズの下端部をエッジとして抽出するエッジ抽出処理を行い、前記対物レンズの下端部と前記観察対象物の上面との位置関係情報を取得する構成である。   In a sixth aspect, the second imaging means obtains a second image including a lower end of the objective lens, and the edge extraction unit obtains a second image of the objective lens included in the second image. An edge extraction process for extracting a lower end portion as an edge is performed to acquire positional relationship information between a lower end portion of the objective lens and an upper surface of the observation target.

この構成によれば、対物レンズの下端部をエッジとして抽出することで対物レンズの下端部の位置を把握することができるので、対物レンズの下端部と観察対象物の上面との位置関係情報を正確に取得できる。   According to this configuration, since the position of the lower end of the objective lens can be grasped by extracting the lower end of the objective lens as an edge, the positional relationship information between the lower end of the objective lens and the upper surface of the observation target can be obtained. Can be obtained accurately.

対物レンズは、対物レンズ単体であってもよいし、対物レンズ本体に各種アタッチメントを取り付けた状態のものであってもよい。アタッチメントとしては、例えばリング照明等がある。特に、対物レンズ本体の下端部にアタッチメントを取り付けた場合には、アタッチメントが対物レンズ本体の下端部よりも下方へ突出し、観察対象物に衝突するおそれがあるが、この発明では、対物レンズの下端部、即ちアタッチメントの下端部も撮像してエッジ抽出によって位置を把握できるので、アタッチメントと観察対象物との衝突も回避できる。   The objective lens may be a single objective lens or a state in which various attachments are attached to the objective lens body. The attachment includes, for example, a ring light. In particular, when the attachment is attached to the lower end of the objective lens body, the attachment may protrude downward from the lower end of the objective lens body, and may collide with the observation target. Since the position, that is, the lower end of the attachment, can be imaged and the position can be grasped by edge extraction, collision between the attachment and the observation target can be avoided.

第7の発明は、前記拡大観察装置は、使用中の前記対物レンズの形状または寸法に関する情報を記憶する記憶部を備え、前記記憶部に記憶されている前記対物レンズの形状または寸法に関する情報を用いて前記対物レンズと前記観察対象物との位置関係情報を取得するように構成されている。   In a seventh aspect, the magnifying observation device includes a storage unit that stores information about a shape or a dimension of the objective lens in use, and stores information about a shape or a dimension of the objective lens stored in the storage unit. To obtain positional relationship information between the objective lens and the observation object.

この構成によれば、記憶部に記憶されている対物レンズの形状または寸法に関する情報に基づいて、対物レンズの全長や対物レンズの下端部の径等を取得することができる。これにより、使用中の対物レンズの下端部の位置や当該下端部の大きさを特定することできるので、対物レンズと観察対象物との位置関係情報を正確に取得することができる。   According to this configuration, the total length of the objective lens, the diameter of the lower end of the objective lens, and the like can be acquired based on the information on the shape or size of the objective lens stored in the storage unit. Thus, the position of the lower end portion of the objective lens in use and the size of the lower end portion can be specified, so that positional relationship information between the objective lens and the observation target can be accurately obtained.

第8の発明は、前記拡大観察装置は、使用中の前記対物レンズの作動距離に関する情報を記憶する記憶部を備え、前記オートフォーカス部は、前記記憶部に記憶されている前記対物レンズの作動距離に関する情報を用いて前記対物レンズの焦点を探索するように構成されている。   In an eighth aspect, the magnifying observation device includes a storage unit that stores information on a working distance of the objective lens in use, and the autofocus unit operates the objective lens stored in the storage unit. It is configured to search for the focal point of the objective lens using information on a distance.

この構成によれば、使用中の対物レンズの作動距離(ワーキングディスタンスともいう)に関する情報を用いることで、オートフォーカス部による焦点の探索範囲を予め限定しておくことが可能になり、合焦に要する時間が短時間で済む。   According to this configuration, by using information on the working distance (also referred to as a working distance) of the objective lens in use, the search range of the focus by the autofocus unit can be limited in advance, and the focus can be adjusted. The time required is short.

第9の発明は、前記オートフォーカス部は、前記対物レンズの焦点を前記観察対象物の最上面に合わせるように構成されている。   In a ninth aspect, the autofocus unit is configured to focus the objective lens on the uppermost surface of the observation target.

例えば、観察対象物の上面が複数箇所あり、それらが互いに水平方向に離れていることがあり、このような場合に観察対象物の最上面に焦点を合わせることで、対物レンズの下端部と観察対象物との衝突を回避することができる。   For example, there are a plurality of upper surfaces of an observation object, which may be horizontally separated from each other. In such a case, focusing on the uppermost surface of the observation object allows the observation of the lower end portion of the objective lens with the observation surface. Collision with the object can be avoided.

第10の発明は、前記オートフォーカス部による前記対物レンズの焦点の探索が失敗した場合には、前記駆動部を停止させて探索を終了するように構成されている。   A tenth invention is configured such that, when the search of the focus of the objective lens by the autofocus unit fails, the driving unit is stopped to end the search.

例えば、焦点が合いにくい観察対象物の場合には対物レンズの焦点の探索に失敗することがあり、この場合には駆動部を停止させることで、対物レンズと観察対象物との衝突を回避することができる。   For example, in the case of an observation object that is hard to focus, search for the focus of the objective lens may fail. In this case, the driving unit is stopped to avoid collision between the objective lens and the observation object. be able to.

第11の発明は、前記オートフォーカス部による前記対物レンズの焦点の探索が失敗した場合には、探索が失敗したことを報知する表示を前記表示部に表示させるように構成されている。   In an eleventh aspect, when the search of the focus of the objective lens by the autofocus unit fails, a display notifying that the search has failed is displayed on the display unit.

この構成によれば、対物レンズの焦点の探索に失敗した場合に、そのことを表示部に表示させることで、使用者等に報知することができる。   According to this configuration, when the search for the focus of the objective lens has failed, the fact can be displayed on the display unit to notify the user or the like.

第12の発明は、前記表示部は、前記第2の撮像手段で取得された前記第2の画像を表示するように構成され、前記拡大観察装置は、前記オートフォーカス部による前記対物レンズの焦点の探索が失敗した場合に前記第2の画像上で使用者による前記対物レンズの合焦目標位置の指定を受け付ける受付部を備え、前記オートフォーカス部は、前記受付部で受け付けた前記合焦目標位置に基づいて前記駆動部を制御する構成としている。   In a twelfth aspect, the display unit is configured to display the second image acquired by the second imaging unit, and the magnifying observation device includes a focus of the objective lens by the autofocus unit. A search unit that receives a designation of a focus target position of the objective lens by the user on the second image when the search for the target has failed, and the autofocus unit includes the focus target received by the reception unit. The drive unit is controlled based on the position.

この構成によれば、対物レンズの焦点の探索に失敗した場合に、第2の画像上で使用者が合焦目標位置を指定することができる。第2の画像には観察対象物の上面が含まれているので、使用者は対物レンズが観察対象物に衝突しないように、合焦目標位置を正確に指定することができる。   According to this configuration, when the search for the focal point of the objective lens has failed, the user can specify the focusing target position on the second image. Since the second image includes the upper surface of the observation target, the user can accurately specify the focus target position so that the objective lens does not collide with the observation target.

第13の発明は、前記画像処理部は、前記第2の撮像手段で取得された前記第2の画像に基づいて前記対物レンズと前記観察対象物の上端との位置関係情報を取得することを特徴としている。   In a thirteenth aspect, the image processing unit may acquire positional relationship information between the objective lens and an upper end of the observation target based on the second image acquired by the second imaging unit. Features.

第14の発明は、前記対物レンズの位置は、前記第2の撮像手段により取得された第2の画像と、前記第2の画像内における位置を、前記載置部または前記対物レンズを互いに接近する方向と離れる方向における位置に変換することにより得られることを特徴としている。   In a fourteenth aspect, the position of the objective lens is such that the position of the second image acquired by the second imaging means and the position in the second image are close to each other by the mounting portion or the objective lens. This is characterized by being obtained by converting to a position in a direction away from the moving direction.

第15の発明は、前記対物レンズの位置は、前記対物レンズが取り付けられた駆動部に設けられたエンコーダに基づき、位置情報が得られるとを特徴としている。   A fifteenth invention is characterized in that the position of the objective lens can be obtained based on an encoder provided in a drive unit to which the objective lens is attached.

本発明によれば、観察対象物からの反射光又は透過光を、対物レンズを介して受光する第1の撮像手段とは別に、観察対象物の少なくとも上面を含む画像を取得する第2の撮像手段を設けて、対物レンズと観察対象物との位置関係情報を取得した上でオートフォーカスを実行することができるので、対物レンズと観察対象物との衝突を回避しながら、オートフォーカスの機能を十分に活かすことができる。   According to the present invention, separately from the first imaging unit that receives reflected light or transmitted light from the observation target via the objective lens, the second imaging that acquires an image including at least the upper surface of the observation target By providing means, it is possible to execute autofocus after acquiring positional relationship information between the objective lens and the observation target, so that the autofocus function can be performed while avoiding collision between the objective lens and the observation target. It can be fully utilized.

本発明の実施形態1に係る拡大観察装置の観察部を前方から見た斜視図である。It is the perspective view which looked at the observation part of the magnification observation device concerning Embodiment 1 of the present invention from the front. 本発明の実施形態1に係る拡大観察装置の観察部の右側面図である。It is a right view of the observation part of the magnification observation device concerning Embodiment 1 of the present invention. 本発明の実施形態1に係る拡大観察装置の観察部の正面図である。It is a front view of the observation part of the magnification observation device concerning Embodiment 1 of the present invention. 本発明の実施形態1に係る拡大観察装置の全体構成を示す図である。It is a figure showing the whole composition of the magnification observation device concerning Embodiment 1 of the present invention. 拡大観察装置の観察部を右側から見たときの概略構成を示す部分断面図である。It is a fragmentary sectional view showing the schematic structure when the observation section of the magnification observation device is seen from the right side. スタンドを左右に揺動させた状態を示す図3相当図である。FIG. 4 is a diagram corresponding to FIG. 3 showing a state in which the stand is swung right and left. 側視画像撮像部、筒部材及び固定ブラケットの構成を示す斜視図である。It is a perspective view which shows the structure of a side view image pick-up part, a cylinder member, and a fixed bracket. 実施形態2に係る図2相当図である。FIG. 3 is a diagram corresponding to FIG. 2 according to a second embodiment. 実施形態3に係る図2相当図である。FIG. 10 is a diagram corresponding to FIG. 2 according to a third embodiment. 実施形態4に係る図3相当図である。FIG. 14 is a diagram corresponding to FIG. 3 according to a fourth embodiment. 実施形態4に係る図5相当図である。FIG. 16 is a diagram corresponding to FIG. 5 according to the fourth embodiment. 実施形態5に係る図3相当図である。FIG. 14 is a diagram corresponding to FIG. 3 according to a fifth embodiment. 実施形態5に係る図5相当図である。FIG. 16 is a diagram corresponding to FIG. 5 according to the fifth embodiment. 実施形態6に係る図3相当図である。FIG. 13 is a diagram corresponding to FIG. 3 according to a sixth embodiment. 実施形態6に係る図5相当図である。FIG. 16 is a diagram corresponding to FIG. 5 according to the sixth embodiment. 表示部に表示されたインターフェースの一例を示す図である。FIG. 4 is a diagram illustrating an example of an interface displayed on a display unit. 拡大観察装置のブロック図である。It is a block diagram of a magnification observation device. 全自動観察時における使用者の作業手順を示すフローチャートである。It is a flowchart which shows the work procedure of the user at the time of full automatic observation. 全自動観察時における拡大観察装置の処理手順を示すフローチャートである。It is a flow chart which shows a processing procedure of a magnification observation device at the time of full automatic observation. 側視画像表示領域に表示された側視画像を示す図である。It is a figure showing the side view image displayed on the side view image display area. 観察対象物の上面及び対物レンズの下端部をエッジ抽出して表示した例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 illustrating an example in which the upper surface of the observation target and the lower end of the objective lens are extracted and displayed as edges. 背景部分が鮮明に映り込んだ側視画像の例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 showing an example of a side-view image in which a background portion is clearly reflected. 背景部分をぼかした側視画像の例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 illustrating an example of a side-view image in which a background portion is blurred. 背景部分の判定要領を説明する図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 for explaining a method of determining a background portion. 背景部分をマスクした側視画像の例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 illustrating an example of a side-view image in which a background portion is masked. アタッチメントが取り付けられた対物レンズを含む側視画像の例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 illustrating an example of a side view image including an objective lens to which an attachment is attached. 合成処理時の上限及び下限設定の例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 illustrating an example of setting an upper limit and a lower limit during the combining process. 側視画像撮像部の視野外に位置しているものを模式図で示した例を示す図20相当図である。FIG. 21 is a schematic diagram corresponding to FIG. 20 illustrating an example of a side view image capturing unit that is located outside the field of view; レボルバを回転させた状態を示す図26相当図である。FIG. 27 is a diagram corresponding to FIG. 26 illustrating a state in which the revolver is rotated. 半自動観察時における使用者の作業手順を示すフローチャートである。It is a flowchart which shows the work procedure of the user at the time of semi-automatic observation. 半自動観察時における拡大観察装置の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the magnification observation apparatus at the time of semi-automatic observation. 観察対象物の一例を示す図である。It is a figure showing an example of an observation object. 位置指定ポインタを表示した例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 showing an example in which a position designation pointer is displayed. 位置指定を補助するための補助表示を重畳表示した例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 illustrating an example in which an auxiliary display for assisting position designation is superimposed and displayed. 衝突回避を支援するための補助表示を重畳表示した例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 illustrating an example in which an auxiliary display for assisting collision avoidance is superimposed and displayed. ヘッド部を揺動させた状態の図33相当図である。FIG. 34 is a diagram corresponding to FIG. 33 in a state where the head portion is swung. 位置指定ポインタにより合焦位置を指定する要領を説明する図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 for explaining a point of designating a focus position by a position designation pointer. 合焦位置を指定した状態を示す図35A相当図である。FIG. 35B is a diagram corresponding to FIG. 35A showing a state where a focus position is designated. 対物レンズが合焦位置に移動した状態を示す図35A相当図である。FIG. 35B is a diagram corresponding to FIG. 35A showing a state in which the objective lens has moved to a focus position. ヘッド部を揺動させた状態の図35A相当図である。FIG. 35B is a diagram corresponding to FIG. 35A in a state where the head portion is swung. 位置指定の下限を示す下限表示線を表示した例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 showing an example in which a lower limit display line indicating a lower limit of position designation is displayed. 手動観察時における使用者の作業手順を示すフローチャートである。It is a flowchart which shows the work procedure of a user at the time of manual observation. 手動観察時における拡大観察装置の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the magnification observation apparatus at the time of manual observation. 対物レンズの作動距離を示すガイド表示を重畳表示した例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 showing an example in which a guide display indicating the working distance of the objective lens is superimposed and displayed. 対物レンズを下方へ移動させた状態を示す図40相当図である。FIG. 41 is a diagram corresponding to FIG. 40 showing a state in which the objective lens has been moved downward. 対物レンズの作動距離を数値で重畳表示した例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20, showing an example in which the working distance of the objective lens is superimposed and displayed by numerical values. 対物レンズを下方へ移動させた状態を示す図42相当図である。FIG. 43 is a view corresponding to FIG. 42 and illustrating a state where the objective lens has been moved downward. 拡大表示の例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 showing an example of an enlarged display. 観察対象物が側視画像撮像部の視野外に位置している場合を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 illustrating a case where an observation target is located outside the field of view of a side-view image capturing unit. 警告表示の例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20 showing an example of a warning display. 切替後の対物レンズの外形線を側視画像に重畳表示した例を示す図20相当図である。FIG. 21 is a diagram corresponding to FIG. 20, illustrating an example in which the outline of the objective lens after switching is superimposed and displayed on a side-view image. ヘッド部を揺動させた状態の図47相当図である。FIG. 48 is a diagram corresponding to FIG. 47 in a state where the head portion is swung. ユーザーインターフェースの補助ウインドウを示し、ナビ画像の表示例を示す図である。FIG. 4 is a diagram illustrating an auxiliary window of a user interface and illustrating a display example of a navigation image. 側視画像の表示例を示す図49A相当図である。FIG. 49A is a diagram corresponding to FIG. 49A showing a display example of a side view image. 観察対象物としての電子部品を示す図である。It is a figure showing an electronic part as an observation object. 抵抗器を観察している状態を説明する図である。It is a figure explaining the state where a resistor is observed. 背部にコネクタが存在することによって抵抗器にピントが合わなくなった状態を示す図である。FIG. 9 is a diagram illustrating a state in which the resistor is out of focus due to the presence of the connector on the back. 位置指定によって抵抗器にピントを合わせた状態を示す図である。It is a figure showing the state where a resistor was focused by position designation. コンデンサが凹部に設けられていることによって当該コンデンサにピントが合わなくなった状態を示す図である。FIG. 5 is a diagram illustrating a state in which the capacitor is out of focus because the capacitor is provided in the concave portion. 手動操作によってコンデンサにピントを合わせた状態を示す図である。FIG. 4 is a diagram illustrating a state where a condenser is focused by a manual operation.

以下、本発明の実施形態を図面に基づいて詳細に説明する。尚、以下の好ましい実施形態の説明は、本質的に例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the following description of the preferred embodiments is merely an example in nature, and is not intended to limit the present invention, its application, or its use.

(実施形態1)
図1〜3は、本発明の実施形態1に係る拡大観察装置の観察部1を示すものであり、図4は、本発明の実施形態1に係る拡大観察装置Aの全体構成を示す図である。拡大観察装置Aは、例えば微小物体等の試料や電子部品、被加工物等のワーク(以下、これらを観察対象物という。)を拡大して表示することにより、使用者が観察対象物の外観を検査したり、寸法計測等を行う際に使用されるものである。拡大観察装置Aは、例えば単に顕微鏡と呼ぶことや、デジタルマイクロスコープと呼ぶこともできる。観察対象物は、上述した例に限定されるものではなく、各種物体を観察対象物とすることができる。具体的には、載置部30に載置された観察対象物に照明光を照射し、該照明光の観察対象物からの反射光又は透過光の受光量を検出して観察対象物の画像を生成し、拡大観察可能に表示することができるように構成されている。
(Embodiment 1)
1 to 3 show the observation unit 1 of the magnifying observation apparatus according to the first embodiment of the present invention, and FIG. 4 is a diagram showing the entire configuration of the magnifying observation apparatus A according to the first embodiment of the present invention. is there. The magnifying observation apparatus A enlarges and displays, for example, a sample such as a minute object, an electronic component, and a work such as a workpiece (hereinafter, referred to as an observation target) so that the user can view the appearance of the observation target. This is used when inspecting or measuring dimensions. The magnifying observation apparatus A can be simply called, for example, a microscope or a digital microscope. The observation target is not limited to the example described above, and various objects can be used as the observation target. Specifically, the observation target placed on the mounting unit 30 is irradiated with illumination light, and the amount of the reflected light or transmitted light of the illumination light reflected from the observation target is detected to detect the image of the observation target. Is generated and displayed so as to be magnified.

図4に示すように、拡大観察装置Aは、観察部1と、表示部2と、コントローラ部3と、マウス4と、図17にのみ示すキーボード6と、制御部60とを備えている。観察部1は、観察対象物を撮像する部分であり、図3に破線で示す拡大観察画像撮像部50によって観察対象物を撮像することが可能になっている。   As shown in FIG. 4, the magnifying observation apparatus A includes an observation unit 1, a display unit 2, a controller unit 3, a mouse 4, a keyboard 6 shown only in FIG. 17, and a control unit 60. The observation unit 1 is a part that captures an image of the observation target, and is capable of capturing an image of the observation target by the enlarged observation image imaging unit 50 indicated by a broken line in FIG.

表示部2は、観察部1で撮像された画像を表示する部分である。コントローラ部3、マウス4及びキーボード6は、拡大観察装置Aを操作するための部材であり、これらは全て備えていなくてもよく、任意の1つまたは2つを備えていてもよい。また、コントローラ部3、マウス4及びキーボード6は、拡大観察装置Aを操作することができればよいので、例えばタッチパネル式の入力装置、音声入力装置等であってもよい。タッチパネル式の入力装置の場合、表示部2と一体化することができ、表示部2に表示されている表示画面上の任意の位置の検出を可能に構成することができる。コントローラ部3、マウス4及びキーボード6は、表示部2に表示された画像上で使用者によって指定された任意の位置の入力を受け付ける受付部である。   The display unit 2 is a part that displays an image captured by the observation unit 1. The controller unit 3, the mouse 4, and the keyboard 6 are members for operating the magnifying observation apparatus A, and all of them may not be provided, and any one or two may be provided. The controller 3, the mouse 4, and the keyboard 6 only need to be able to operate the magnifying observation device A, and may be, for example, an input device of a touch panel type, a voice input device, or the like. In the case of a touch panel type input device, it can be integrated with the display unit 2 and can be configured to be able to detect an arbitrary position on the display screen displayed on the display unit 2. The controller unit 3, the mouse 4, and the keyboard 6 are receiving units that receive an input at an arbitrary position specified by the user on the image displayed on the display unit 2.

(観察部1の構成)
図1〜図3に示すように、観察部1は、ベース部10と、対物レンズ25が取り付けられるスタンド部20と、載置部30とを備えている。この実施形態の説明では、図1〜図3に示すように、観察部1の前後方向及び左右方向を定義する。すなわち、使用者と対面する側が観察部1の前側であり、これと反対側が観察部1の後側であり、使用者から見て右側が観察部1の右側であり、使用者から見て左側が観察部1の左側である。尚、前後方向及び左右方向の定義は、説明の理解を助けるためのものであり、実際の使用状態を限定するものではなく、いずれの方向が前となるように使用してもよい。
(Configuration of the observation unit 1)
As shown in FIGS. 1 to 3, the observation unit 1 includes a base unit 10, a stand unit 20 to which an objective lens 25 is attached, and a mounting unit 30. In the description of this embodiment, the front-back direction and the left-right direction of the observation unit 1 are defined as shown in FIGS. That is, the side facing the user is the front side of the observation unit 1, the opposite side is the rear side of the observation unit 1, the right side as viewed from the user is the right side of the observation unit 1, and the left side as viewed from the user. Is the left side of the observation unit 1. It should be noted that the definitions of the front-back direction and the left-right direction are for helping understanding of the description, and do not limit the actual use state, and any direction may be used as the front.

図1に示すように、X方向を観察部1の左右方向とし、Y方向を観察部1の前後方向とし、Z方向を観察部1の上下方向とし、Z軸に平行な軸を中心に回転する方向をθ方向と定義する。X方向とY方向とは同一水平面上で互いに直交している。Z軸は、この平面に対して直交する法線の方向である。拡大観察画像撮像部50の光軸はZ軸方向となっている。   As shown in FIG. 1, the X direction is the left-right direction of the observation unit 1, the Y direction is the front-back direction of the observation unit 1, the Z direction is the up-down direction of the observation unit 1, and the rotation is about an axis parallel to the Z axis. Is defined as the θ direction. The X direction and the Y direction are orthogonal to each other on the same horizontal plane. The Z axis is the direction of the normal perpendicular to this plane. The optical axis of the magnified observation image capturing unit 50 is in the Z-axis direction.

また、詳細は後述するが、スタンド部20はベース部10に対して図1や図2に示す軸U回りに揺動可能となっている(図6参照)。軸Uは、拡大観察画像撮像部50の光軸に直交し、かつ、観察部1の前後方向に延びており、Y軸と平行な軸である。   As will be described later in detail, the stand 20 can swing about the axis U shown in FIGS. 1 and 2 with respect to the base 10 (see FIG. 6). The axis U is orthogonal to the optical axis of the magnified observation image capturing unit 50, extends in the front-rear direction of the observation unit 1, and is an axis parallel to the Y axis.

ベース部10は、観察部1をぐらつくことなく、机等に置いておくための部分であり、観察部1の略下半部を構成している。図1や図2に示すように、ベース部10には、載置部30が設けられている。載置部30は、ベース部10の前後方向中央部近傍から前側の部分に支持されており、該ベース部10から上方へ突出している。載置部30は、観察対象物を載置するための部分であり、この実施形態では、電動載置台で構成されている。すなわち、観察対象物を電動載置台の幅方向(X方向)及び奥行き方向(Y方向)の両方向に移動可能に支持することができるとともに、上下方向(Z方向)及びZ軸回りに回動できるようになっており、載置台31と、載置台支持部32と、図17に示す載置部XY方向駆動部82と、載置部Z方向駆動部83と、載置部θ方向駆動部84とを有している。載置台31は、その上面(載置面ともいう)が略水平に延びるように形成されており、この上面に観察対象物を載置する。載置台31は、ステージと呼ぶこともできる。載置台31には、観察対象物が大気開放状態、即ち真空室等に収容されない状態で載置される。   The base unit 10 is a part for placing the observation unit 1 on a desk or the like without shaking, and constitutes a substantially lower half of the observation unit 1. As shown in FIG. 1 and FIG. 2, the mounting portion 30 is provided on the base portion 10. The mounting portion 30 is supported by a portion on the front side from near the center in the front-rear direction of the base portion 10 and protrudes upward from the base portion 10. The mounting section 30 is a section for mounting an observation target, and in this embodiment, is configured by an electric mounting table. That is, the observation target can be movably supported in both the width direction (X direction) and the depth direction (Y direction) of the electric mounting table, and can rotate in the up-down direction (Z direction) and around the Z axis. The mounting table 31, the mounting table support unit 32, the mounting unit XY direction driving unit 82, the mounting unit Z direction driving unit 83, and the mounting unit θ direction driving unit 84 shown in FIG. And The mounting table 31 is formed such that its upper surface (also referred to as a mounting surface) extends substantially horizontally, and mounts an observation target on this upper surface. The mounting table 31 can also be called a stage. The observation target is placed on the mounting table 31 in a state of being opened to the atmosphere, that is, in a state of not being housed in a vacuum chamber or the like.

載置台支持部32は、載置台31とベース部10とを連結する部分であり、載置部XY方向駆動部82、載置部Z方向駆動部83及び載置部θ方向駆動部84等を収容することが可能に構成されている。載置部XY方向駆動部82及び載置部Z方向駆動部83は、それぞれ、制御部60により制御されるステッピングモータ等の図示しないアクチュエータと、ステッピングモータの出力軸の回転を直線運動に変換する運動変換機構とを含んでおり、制御部60から出力された駆動パルスに基づいて、載置台31を移動させる。載置部Z方向駆動部83及び対物レンズZ軸方向駆動部80によって、載置台31を、対物レンズ25に接近する方向(上方向)と、対物レンズ25から離れる方向(下方向)とに移動させることができる。載置台31を載置部Z方向駆動部83によって上下方向に移動させることにより、載置台31に載置されている観察対象物も同様に移動することになる。   The mounting table support unit 32 is a part that connects the mounting table 31 and the base unit 10, and includes a mounting unit XY direction driving unit 82, a mounting unit Z direction driving unit 83, a mounting unit θ direction driving unit 84, and the like. It is configured to be able to be accommodated. The placement unit XY-direction drive unit 82 and the placement unit Z-direction drive unit 83 convert the rotation of the output shaft of the stepping motor and an unillustrated actuator such as a stepping motor controlled by the control unit 60 into linear motion. A movement conversion mechanism is included, and the mounting table 31 is moved based on a drive pulse output from the control unit 60. The mounting table 31 is moved in a direction approaching the objective lens 25 (upward) and in a direction away from the objective lens 25 (downward) by the mounting section Z-direction drive section 83 and the objective lens Z-axis direction drive section 80. Can be done. By moving the mounting table 31 in the up-down direction by the mounting section Z-direction driving unit 83, the observation target mounted on the mounting table 31 also moves.

載置部θ方向駆動部84は制御部60により制御されるステッピングモータ等の図示しないアクチュエータを含んでいる。載置部XY方向駆動部82は、載置台31をX方向及びY方向に移動させ、載置部Z方向駆動部83は、載置台31をZ方向に移動させ、載置部θ方向駆動部84は、載置台31をθ方向に回動させる。尚、載置部θ方向駆動部84は省略してもよい。また、例えば図1等に示すZ軸方向操作ダイヤル13によって載置台31をZ方向に手動で移動させることもできる。図示しないが、X方向及びY方向や、θ方向へも手動で移動させることができるようになっている。   The placement unit θ-direction drive unit 84 includes an actuator (not shown) such as a stepping motor controlled by the control unit 60. The placing section XY direction driving section 82 moves the placing table 31 in the X direction and the Y direction, and the placing section Z direction driving section 83 moves the placing table 31 in the Z direction. 84 rotates the mounting table 31 in the θ direction. The placement section θ-direction drive section 84 may be omitted. Further, for example, the mounting table 31 can be manually moved in the Z direction by the Z-axis direction operation dial 13 shown in FIG. 1 and the like. Although not shown, it can be manually moved in the X direction, the Y direction, and the θ direction.

図5に示すように、ベース部10の載置台31よりも後側には、後側支持部11と前側支持部12とが上方へ突出するように設けられている。後側支持部11と前側支持部12とは、前後方向に間隔をあけて配置されている。後側支持部11には、該後側支持部11を前後方向に貫通するように、円形の後側軸受孔11aが形成されている。前側支持部12にも前側軸受孔12aが同様に形成されており、後側軸受孔11aと前側軸受孔12aとは、同一軸U(図2等に示す)上に中心を持っており、同心上に位置している。   As shown in FIG. 5, a rear support portion 11 and a front support portion 12 are provided behind the mounting table 31 of the base portion 10 so as to protrude upward. The rear support portion 11 and the front support portion 12 are arranged at an interval in the front-rear direction. A circular rear bearing hole 11a is formed in the rear support portion 11 so as to penetrate the rear support portion 11 in the front-rear direction. A front bearing hole 12a is similarly formed in the front support portion 12, and the rear bearing hole 11a and the front bearing hole 12a are centered on the same axis U (shown in FIG. 2 and the like) and are concentric. Located on top.

図2等に示すように、スタンド部20は、スタンド本体21と、ヘッド部22とを備えており、観察部1の略上半部を構成している。ヘッド部22は、スタンド本体21に対して上下方向に延びる案内部材21bによって昇降可能、即ちZ軸方向に移動可能に取り付けられている。ヘッド部22は、載置台31の上面と対向するように配置されており、ヘッド部22における下側部分、即ち、載置台31の上面と対向する部分には、複数の対物レンズ25が取付可能なレボルバ26が設けられている。レボルバ26は、従来から周知の電動レボルバで構成することができるが、手動式のレボルバであってもよい。   As shown in FIG. 2 and the like, the stand unit 20 includes a stand body 21 and a head unit 22, and forms a substantially upper half of the observation unit 1. The head portion 22 is attached to the stand body 21 so as to be able to move up and down, that is, to be movable in the Z-axis direction, by a guide member 21b extending vertically. The head section 22 is disposed so as to face the upper surface of the mounting table 31, and a plurality of objective lenses 25 can be attached to a lower portion of the head section 22, that is, a portion facing the upper surface of the mounting table 31. A simple revolver 26 is provided. The revolver 26 can be constituted by a conventionally known electric revolver, but may be a manual revolver.

レボルバ26の下面には、該レボルバ26の回転軸の周囲に複数のレンズ取付孔(図示せず)が形成されている。これらレンズ取付孔には、倍率が互いに異なる対物レンズ25を着脱可能に取り付けることができる。一般には、倍率が互いに異なる対物レンズ25は、長さや外径も互いに異なっている。使用可能位置にある対物レンズ25には、載置台31に載置されている観察対象物の表面で反射した反射光又は観察対象物を透過した透過光が入射するようになっている。使用可能位置にある対物レンズ25の光軸は、Z軸と平行になる。   On the lower surface of the revolver 26, a plurality of lens mounting holes (not shown) are formed around the rotation axis of the revolver 26. Objective lenses 25 having different magnifications can be detachably attached to these lens attachment holes. Generally, the objective lenses 25 having different magnifications have different lengths and outer diameters. The reflected light reflected from the surface of the observation target placed on the mounting table 31 or the transmitted light transmitted through the observation target enters the objective lens 25 at the usable position. The optical axis of the objective lens 25 at the usable position is parallel to the Z axis.

レボルバ26のレンズ取付孔には、各種アタッチメントが取り付けられた対物レンズ25も着脱可能に取り付けることができる。アタッチメントは、例えば、偏向アタッチメント、拡散アタッチメント、リング照明アタッチメント等があるが、これらに限られるものではなく、各種アタッチメントを対物レンズ25の先端部に取り付けることができる。リング照明87は、ヘッド部22に設けてもよく、制御部60によりON、OFF制御されるとともに、明るさも制御される。リング照明87とは、対物レンズ25の周囲を囲むように配置された非同軸落射照明であり、対物レンズ25の光軸の周囲から観察対象物100を照明する。   The objective lens 25 to which various attachments are attached can be detachably attached to the lens attachment hole of the revolver 26. The attachment includes, for example, a deflection attachment, a diffusion attachment, a ring illumination attachment, and the like, but is not limited thereto, and various attachments can be attached to the distal end of the objective lens 25. The ring illumination 87 may be provided in the head unit 22, and is controlled on and off by the control unit 60, and the brightness is also controlled. The ring illumination 87 is a non-coaxial epi-illumination arranged to surround the periphery of the objective lens 25, and illuminates the observation target 100 from around the optical axis of the objective lens 25.

ヘッド部22には、図17に示す電動レボルバ駆動部81が設けられている。電動レボルバ駆動部81は、レボルバ26を回転軸回りに回転駆動する部分であり、制御部60により制御されるステッピングモータ等の図示しないアクチュエータを含んでおり、制御部60から出力された駆動パルスに基づいて、レボルバ26を回転させる。これにより、使用者が前記受付部の操作によって選択した対物レンズ25への切り替えが自動で行われるようになる。   The head section 22 is provided with an electric revolver driving section 81 shown in FIG. The electric revolver driving unit 81 is a part that drives the revolver 26 to rotate around the rotation axis, includes an actuator (not shown) such as a stepping motor controlled by the control unit 60, and generates a driving pulse output from the control unit 60. Based on this, the revolver 26 is rotated. Thereby, the switching to the objective lens 25 selected by the user through the operation of the reception unit is automatically performed.

スタンド本体21またはヘッド部22には、該ヘッド部22をZ方向に移動させるための対物レンズZ方向駆動部80(図17に示す)が設けられている。ヘッド部22に対物レンズ25が取り付けられているので、対物レンズZ方向駆動部80は、対物レンズ25を載置台31に接近する方向と、載置台31から離れる方向とに移動させることになる。対物レンズZ方向駆動部80は、制御部60により制御されるステッピングモータ等の図示しないアクチュエータと、ステッピングモータの出力軸の回転を上下方向の直線運動に変換する運動変換機構とを含んでおり、制御部60から出力された駆動パルスに基づいて、ヘッド部22を移動させる。対物レンズZ方向駆動部80のステッピングモータを回転させることにより、対物レンズ25が上下方向に移動し、これにより、対物レンズ25と載置台31との相対距離を変更することができる。対物レンズ25と載置台31との相対距離の変更ピッチを最小で1nm程度に設定することができる精度を対物レンズZ方向駆動部80が有している。また、例えば図1等に示すZ軸方向操作ダイヤル23によって対物レンズ25をZ方向に手動で移動させることもできる。   The stand main body 21 or the head unit 22 is provided with an objective lens Z-direction drive unit 80 (shown in FIG. 17) for moving the head unit 22 in the Z direction. Since the objective lens 25 is attached to the head unit 22, the objective lens Z-direction drive unit 80 moves the objective lens 25 in a direction approaching the mounting table 31 and in a direction away from the mounting table 31. The objective lens Z-direction driving unit 80 includes an actuator (not shown) such as a stepping motor controlled by the control unit 60, and a motion conversion mechanism that converts the rotation of the output shaft of the stepping motor into a vertical linear motion. The head unit 22 is moved based on the drive pulse output from the control unit 60. By rotating the stepping motor of the objective lens Z-direction drive unit 80, the objective lens 25 moves up and down, whereby the relative distance between the objective lens 25 and the mounting table 31 can be changed. The objective lens Z-direction drive unit 80 has an accuracy capable of setting the change pitch of the relative distance between the objective lens 25 and the mounting table 31 to at least about 1 nm. Further, for example, the objective lens 25 can be manually moved in the Z direction by the Z-axis direction operation dial 23 shown in FIG.

また、図示しないが、ヘッド部22は、対物レンズ25と載置台31との相対距離を検知することができるリニアスケール(リニアエンコーダ)等を備えている。リニアスケールは、対物レンズ25と載置台31との相対距離の変化が1nmであっても検知できるように構成されている。リニアスケールの検知結果は、制御部60に出力される。   Although not shown, the head unit 22 includes a linear scale (linear encoder) that can detect a relative distance between the objective lens 25 and the mounting table 31. The linear scale is configured to be able to detect even a change in the relative distance between the objective lens 25 and the mounting table 31 of 1 nm. The detection result of the linear scale is output to the control unit 60.

ヘッド部22には、拡大観察画像撮像部50が設けられている。拡大観察画像撮像部50は、載置台31に載置されている観察対象物の表面で反射した反射光又は観察対象物を透過した透過光を、対物レンズ25を介して受光して第1の画像を取得する第1の撮像手段である。第1の画像は、観察対象物を観察するための拡大観察用画像ともいう。   The head section 22 is provided with an enlarged observation image imaging section 50. The magnified observation image imaging unit 50 receives the reflected light reflected on the surface of the observation target placed on the mounting table 31 or the transmitted light transmitted through the observation target through the objective lens 25, and performs first reception. This is a first imaging unit for acquiring an image. The first image is also called an enlarged observation image for observing the observation target.

拡大観察画像撮像部50は、その光軸が対物レンズ25の光軸と一致するように、即ち、Z軸と平行になるようにヘッド部22に設けられている。拡大観察画像撮像部50は、例えばCMOS(相補型金属酸化膜半導体)やCCD(電荷結合素子)等のイメージセンサで構成されており、二次元状に配置された多数の受光素子を有している。   The magnified observation image imaging unit 50 is provided in the head unit 22 so that its optical axis coincides with the optical axis of the objective lens 25, that is, parallel to the Z axis. The magnified observation image capturing unit 50 is configured by an image sensor such as a CMOS (complementary metal oxide semiconductor) or a CCD (charge coupled device), and has a large number of light receiving elements arranged two-dimensionally. I have.

ヘッド部22には、同軸落射照明51(図17に示す)が設けられている。同軸落射照明51は、対物レンズ25を介して観察対象物を照明する光源となる照明ユニットであり、対物レンズ25の光軸上に照明光路が位置するように観察対象物の観察面を照明する。同軸落射照明51は、図示しないが、例えばLED等の発光体を有するとともに、その発光体の光が入射するコレクタ、リレーレンズ、ミラー及びレンズを有している。発光体の光は、コレクタ及びリレーレンズを通った後、ミラーによって方向変換されてからレンズに入射し、レンズから出射した光は、ハーフミラーによって観察対象物方向へ変換されてから対物レンズ25の観察光軸上に照射され、観察対象物を照明する。同軸落射照明51は、後述する制御部60によってON、OFF及びON時の光量が制御される。同軸落射照明51は、鏡面もしくは鏡面に近い観察面を観察するのに適しており、観察面の反射率の違いをコントラスト高く観察することができるという利点がある。   The head section 22 is provided with coaxial epi-illumination 51 (shown in FIG. 17). The coaxial epi-illumination 51 is an illumination unit serving as a light source that illuminates the observation target via the objective lens 25, and illuminates the observation surface of the observation target such that the illumination optical path is located on the optical axis of the objective lens 25. . Although not shown, the coaxial epi-illumination 51 has a light emitter such as an LED, for example, and has a collector, a relay lens, a mirror, and a lens into which the light of the light emitter enters. After the light of the illuminant passes through the collector and the relay lens, the direction of the light is changed by the mirror and then enters the lens. The light emitted from the lens is converted by the half mirror toward the object to be observed, and then the light of the objective lens 25 is changed. It is irradiated on the observation optical axis to illuminate the observation target. The coaxial epi-illumination 51 is controlled by a control unit 60 described later to control ON, OFF, and ON light amounts. The coaxial epi-illumination 51 is suitable for observing a mirror surface or an observation surface close to the mirror surface, and has an advantage that a difference in reflectance of the observation surface can be observed with high contrast.

また、図示しないが、観察部1は、従来周知の透過照明を備えている。透過照明は、観察対象物が透光性を有する場合に使用される照明であり、載置台31の下方から観察対象物に向けて光を照射するように構成されている。   Although not shown, the observation unit 1 includes a conventionally known transmitted illumination. The transmitted illumination is illumination used when the observation target has translucency, and is configured to irradiate light from below the mounting table 31 toward the observation target.

図5に示すように、スタンド本体21の下部には、後側取付部27と、前側取付部28とが下方へ突出するように設けられている。後側取付部27と、前側取付部28とは、前後方向に間隔をあけて配置されている。スタンド本体21の後側取付部27は、ベース部10の後側支持部11と前側支持部12との間に配置される。スタンド本体21の前側取付部28は、ベース部10の前側支持部12の前方に配置される。後側取付部27には、揺動軸40が相対的に回動不能に固定されている。揺動軸40は、内部が空洞とされた中空軸で構成されており、後側取付部27から前方及び後方へそれぞれ突出している。揺動軸40の軸心は、前記軸U(図2等に示す)上に位置している。揺動軸40の前端部は、スタンド本体21の前側取付部28に対して固定されている。スタンド本体21の前側取付部28を揺動軸40の前端部に固定することで、重量のあるスタンド部20の前側を支持してスタンド部20を安定させることができ、ひいては、ヘッド部22の揺れを抑制できる。   As shown in FIG. 5, a rear mounting portion 27 and a front mounting portion 28 are provided at a lower portion of the stand body 21 so as to protrude downward. The rear mounting portion 27 and the front mounting portion 28 are arranged at an interval in the front-rear direction. The rear mounting portion 27 of the stand body 21 is disposed between the rear supporting portion 11 and the front supporting portion 12 of the base portion 10. The front mounting portion 28 of the stand body 21 is disposed in front of the front support portion 12 of the base portion 10. The swing shaft 40 is fixed to the rear mounting portion 27 so as not to rotate relatively. The swing shaft 40 is formed of a hollow shaft having a hollow inside, and protrudes forward and backward from the rear mounting portion 27, respectively. The axis of the swing shaft 40 is located on the shaft U (shown in FIG. 2 and the like). The front end of the swing shaft 40 is fixed to the front mounting portion 28 of the stand body 21. By fixing the front mounting portion 28 of the stand main body 21 to the front end of the pivot shaft 40, the front side of the heavy stand portion 20 can be supported and the stand portion 20 can be stabilized. Shaking can be suppressed.

揺動軸40は、後側軸受41及び前側軸受42によりベース部10に対して軸U回りに回動可能に支持されている。後側軸受41及び前側軸受42は、例えばクロスローラベアリング等で構成することができる。後側軸受41の外輪部材41aは、ベース部10の後側支持部11の後側軸受孔11aに嵌め込まれている。後側軸受41の内輪部材41bには、揺動軸40の後端部近傍が挿入されており、内輪部材41bは揺動軸40に固定されている。外輪部材41aと内輪部材41bとの間には、多数のころ41cが転動可能に設けられている。また、前側軸受42の外輪部材42aは、ベース部10の前側支持部12の前側軸受孔12aに嵌め込まれている。前側軸受42の内輪部材42bには、揺動軸40の前端部近傍が挿入されており、内輪部材42bは揺動軸40に固定されている。外輪部材42aと内輪部材42bとの間には、多数のころ42cが転動可能に設けられている。   The swing shaft 40 is supported by the rear bearing 41 and the front bearing 42 so as to be rotatable around the axis U with respect to the base 10. The rear bearing 41 and the front bearing 42 can be configured by, for example, a cross roller bearing or the like. The outer ring member 41 a of the rear bearing 41 is fitted in a rear bearing hole 11 a of the rear support portion 11 of the base 10. The vicinity of the rear end of the swing shaft 40 is inserted into the inner ring member 41 b of the rear bearing 41, and the inner ring member 41 b is fixed to the swing shaft 40. A number of rollers 41c are provided between the outer ring member 41a and the inner ring member 41b so as to be rollable. The outer ring member 42 a of the front bearing 42 is fitted into a front bearing hole 12 a of the front support portion 12 of the base 10. The vicinity of the front end of the swing shaft 40 is inserted into the inner ring member 42 b of the front bearing 42, and the inner ring member 42 b is fixed to the swing shaft 40. A number of rollers 42c are provided between the outer ring member 42a and the inner ring member 42b so as to be rollable.

すなわち、スタンド部20は、対物レンズ25及び拡大観察画像撮像部50を支持するヘッド部(支持部材)22を有しているので、対物レンズ25及び拡大観察画像撮像部50はスタンド部20に取り付けられることになる。そして、ヘッド部22を含むスタンド部20は、拡大観察画像撮像部50の光軸に直交する揺動軸40回りに揺動可能にベース部10に支持されることになるので、図6に仮想線で示すように、スタンド部20が観察部1の左右方向に揺動することになる。   That is, since the stand section 20 has the head section (supporting member) 22 that supports the objective lens 25 and the magnified observation image capturing section 50, the objective lens 25 and the magnified observation image capturing section 50 are attached to the stand section 20. Will be done. The stand unit 20 including the head unit 22 is supported by the base unit 10 so as to be able to swing around a swing axis 40 orthogonal to the optical axis of the magnified observation image capturing unit 50. As shown by the line, the stand unit 20 swings in the left-right direction of the observation unit 1.

図5に示すように、ベース部10には、ブレーキ機構43が固定されている。ブレーキ機構43は、揺動軸40にブレーキ力を作用させて軸U回りに回転不能にするための機構であり、例えば揺動軸40に対して締め付け力を作用させた状態と、締め付け力を作用させない状態とに切り替え可能に構成された従来から周知のブレーキ機構で構成することができる。ブレーキ機構43の操作は、図示しないが、使用者が外部からのレバー操作によって行うことができる。ブレーキ力が作用しないようにブレーキ機構43を操作することで、揺動軸40が軸U回りに回転可能になり、一方、ブレーキ力が作用するようにブレーキ機構43を操作することで、揺動軸40を任意の回動位置で停止させ、この停止状態を保持することができる。尚、ブレーキ機構43を操作するレバーには、ブレーキが不意に解除されないようにするためのロック機構が設けられている。   As shown in FIG. 5, a brake mechanism 43 is fixed to the base 10. The brake mechanism 43 is a mechanism for applying a braking force to the swing shaft 40 to disable rotation about the axis U. For example, a state in which a tightening force is applied to the swing shaft 40 and a state in which the tightening force is A conventionally well-known brake mechanism configured to be switchable between a non-operating state and a non-operating state can be used. Although not shown, the operation of the brake mechanism 43 can be performed by a user through an external lever operation. By operating the brake mechanism 43 so that the braking force is not applied, the swing shaft 40 becomes rotatable around the axis U. On the other hand, by operating the brake mechanism 43 so that the braking force is applied, the swing The shaft 40 can be stopped at an arbitrary rotation position, and this stopped state can be maintained. Note that a lever for operating the brake mechanism 43 is provided with a lock mechanism for preventing the brake from being accidentally released.

揺動軸40の内部には、筒部材44が設けられている。筒部材44は、円筒状に形成されており、揺動軸40の軸心、即ち軸Uと同心上に配置され、揺動軸40と同方向に延びている。筒部材44の後端部には、固定ブラケット46が固定されている。図7に示すように、固定ブラケット46は、上下方向に長く形成されており、上部及び下部にそれぞれ締結固定用の孔46aが設けられている。各孔46aにはネジやボルト等の締結部材が挿通され、締結部材によって固定ブラケット46がベース部10の後側支持部11に固定される。   A cylindrical member 44 is provided inside the swing shaft 40. The tubular member 44 is formed in a cylindrical shape, is arranged concentrically with the axis of the swing shaft 40, that is, the axis U, and extends in the same direction as the swing shaft 40. A fixing bracket 46 is fixed to the rear end of the tubular member 44. As shown in FIG. 7, the fixing bracket 46 is formed to be long in the up-down direction, and holes 46a for fastening and fixing are provided at upper and lower portions, respectively. A fastening member such as a screw or a bolt is inserted into each hole 46a, and the fixing bracket 46 is fixed to the rear support portion 11 of the base portion 10 by the fastening member.

図5に示すように、筒部材44の前端部は、スタンド本体21の前側取付部28に形成された貫通孔28aに挿通されている。筒部材44の前端部の外周面と、前側取付部28の貫通孔28aの内周面との間にはシール材44aが配設されており、このシール材44aを介して筒部材44の前端部が前側取付部28の貫通孔28aの内周面に対して回動可能に支持されている。   As shown in FIG. 5, the front end of the tubular member 44 is inserted into a through hole 28 a formed in the front mounting portion 28 of the stand body 21. A seal member 44a is provided between the outer peripheral surface of the front end portion of the cylindrical member 44 and the inner peripheral surface of the through hole 28a of the front mounting portion 28, and the front end of the cylindrical member 44 is provided via the seal member 44a. The portion is rotatably supported on the inner peripheral surface of the through hole 28 a of the front mounting portion 28.

筒部材44の内部には、側視画像撮像部(第2の撮像手段)45が載置部30または観察対象物の方を向き、かつ、拡大観察画像撮像部50の光軸(Z軸と平行)と異なる光軸(Y軸と平行)を有するように設けられている。揺動軸40は径を大きくすることで剛性の確保が容易になるのでヘッド部22の揺れを抑制する(耐振性を高める)ことができる反面、そのような大径の揺動軸40を配設するためのスペースの確保が問題になり、その周囲に側視画像撮像部45を配設するのが困難になる等、別の問題が発生する懸念がある。本例では、揺動軸40を中空軸とし、その内部を側視画像撮像部45やケーブル45bの配設スペースとして利用することができるので、大径の揺動軸40とした場合にデッドスペースを減らすことができる。   Inside the cylindrical member 44, a side-view image capturing unit (second image capturing unit) 45 faces the mounting unit 30 or the observation target, and the optical axis (Z-axis and And a different optical axis (parallel to the Y axis). By increasing the diameter of the oscillating shaft 40, it is easy to secure the rigidity, so that swaying of the head portion 22 can be suppressed (vibration resistance can be improved). There is a concern that securing a space for installation may cause a problem, and it may be difficult to arrange the side-view image capturing unit 45 around the space, and another problem may occur. In this example, the swing shaft 40 is a hollow shaft, and the inside thereof can be used as an arrangement space for the side-view image pickup unit 45 and the cable 45b. Can be reduced.

側視画像撮像部45は、拡大観察画像撮像部50と同様にCMOSやCCD等のイメージセンサで構成されており、基板45aを有している。基板45aは、上下方向に延びる姿勢とされて筒部材44の内部に固定されている。この基板45aの前面に側視画像撮像部45が固定されている。   The side-view image pickup unit 45 is configured by an image sensor such as a CMOS or a CCD similarly to the magnified observation image pickup unit 50, and has a substrate 45a. The board 45a is fixed to the inside of the tubular member 44 so as to extend vertically. The side-view image pickup unit 45 is fixed to the front surface of the board 45a.

側視画像撮像部45による撮像データを制御部60へ送信するケーブル45bが設けられている。ケーブル45bは、側視画像撮像部45から延びており、筒部材44の内部、即ち揺動軸40の内部を通って後側から外部へ出て、制御部60に接続されている。この実施形態のように、揺動軸40の周囲には軸受部材等が配設される場合が多く、側視画像撮像部45を配設するためのスペースを揺動軸40の周囲に確保するのが難しいが、揺動軸40を中空軸とすることで揺動軸40の内部の空間を有効に利用して側視画像撮像部45を配設することができるとともに、揺動軸40の内部の空間をケーブル45bの配設空間としても利用することができる。尚、図7に示すように、筒部材44の前端部には、側視画像撮像部45が臨む部分以外を閉塞するための閉塞板44bが設けられている。   A cable 45b for transmitting imaging data from the side-view image capturing unit 45 to the control unit 60 is provided. The cable 45 b extends from the side-view image capturing unit 45, passes through the inside of the tubular member 44, that is, the inside of the swing shaft 40, exits from the rear side, and is connected to the control unit 60. As in this embodiment, a bearing member or the like is often provided around the pivot shaft 40, and a space for disposing the side-view image capturing unit 45 is secured around the pivot shaft 40. However, by making the swinging shaft 40 a hollow shaft, the space inside the swinging shaft 40 can be effectively used to arrange the side-view image capturing unit 45, and the swinging shaft 40 The internal space can also be used as a space for disposing the cable 45b. As shown in FIG. 7, a closing plate 44b is provided at the front end of the tubular member 44 for closing portions other than the portion where the side-view image capturing unit 45 faces.

側視画像撮像部45は、揺動軸40の近傍に設けられており、側視画像撮像部45の光軸は、載置台31の上面よりも上で、軸Uよりも上に位置している。これにより、側視画像撮像部45で観察対象物を載置台31の奥行き方向に撮像することができ、載置台31に載置されている観察対象物の少なくとも上面を含む第2の画像を取得することが可能になる。また、側視画像撮像部45により、対物レンズ25の少なくとも下端部を含む第2の画像を取得することができ、また、観察対象物を観察している対物レンズ25の下端部、載置台31の上面及び観察対象物を含む第2の画像を取得することもできる。レボルバ26に複数の対物レンズ25が取り付けられている場合には、側視画像撮像部45により、複数の対物レンズ25を含む第2の画像を取得することもできる。第2の画像は、観察対象物や載置台31を側方から見た画像であることから側視画像ともいう。   The side-view image capturing unit 45 is provided near the swing shaft 40, and the optical axis of the side-view image capturing unit 45 is located above the upper surface of the mounting table 31 and above the axis U. I have. Accordingly, the observation object can be imaged in the depth direction of the mounting table 31 by the side-view image capturing unit 45, and the second image including at least the upper surface of the observation object mounted on the mounting table 31 is obtained. It becomes possible to do. Further, the second image including at least the lower end of the objective lens 25 can be acquired by the side-view image capturing unit 45, and the lower end of the objective lens 25 observing the observation target and the mounting table 31 can be obtained. It is also possible to acquire a second image including the upper surface of the image and the observation object. When the plurality of objective lenses 25 are attached to the revolver 26, the second image including the plurality of objective lenses 25 can be acquired by the side-view image capturing unit 45. The second image is also referred to as a side-view image because it is an image of the observation target and the mounting table 31 viewed from the side.

側視画像撮像部45の光軸が揺動軸40の中心よりも上に位置しているので、ユーセントリック観察時に載置台31が側視画像に映り込む範囲を低減することができる。ユーセントリック観察の詳細については後述する。   Since the optical axis of the side-view image capturing unit 45 is located above the center of the swing shaft 40, the range in which the mounting table 31 is reflected in the side-view image during eucentric observation can be reduced. Details of the eucentric observation will be described later.

尚、側視画像撮像部45の光軸と、揺動軸40とは互いの中心が略一致するように設けられていてもよい。また、側視画像撮像部45は、揺動軸40の径方向中心部近傍に設けることができる。   Note that the optical axis of the side-view image capturing unit 45 and the swing shaft 40 may be provided such that their centers are substantially coincident with each other. In addition, the side-view image capturing unit 45 can be provided in the vicinity of the center of the swing shaft 40 in the radial direction.

側視画像撮像部45が載置台31よりも後から該載置台31の方を向くように設けられているので、使用者側とは反対側から載置台31を撮像するように設けられることになる。揺動軸40はベース部10に設けられており、従って、側視画像撮像部45は、対物レンズZ軸方向駆動部80による対物レンズ25の駆動時に移動しない部材に設けられることになり、対物レンズZ軸方向駆動部80による対物レンズ25の駆動時に、側視画像撮像部45が移動しない。また、筒部材44が固定ブラケット46によってベース部10に固定されているので、筒部材44は、スタンド部20を揺動させた時に揺動しない部材であり、非揺動部となる。よって、側視画像撮像部45は非揺動部に設けられることになる。従って、スタンド部20の揺動動作との関連を無くした状態で、側視画像撮像部45が載置台31を含む側視画像を取得することができるようになっている。   Since the side-view image capturing section 45 is provided so as to face the mounting table 31 from behind the mounting table 31, it is provided to capture the mounting table 31 from the side opposite to the user side. Become. The oscillating shaft 40 is provided on the base unit 10. Therefore, the side-view image capturing unit 45 is provided on a member that does not move when the objective lens 25 is driven by the objective lens Z-axis direction driving unit 80. When the objective lens 25 is driven by the lens Z-axis direction driving unit 80, the side-view image capturing unit 45 does not move. Further, since the tubular member 44 is fixed to the base portion 10 by the fixing bracket 46, the tubular member 44 is a member that does not swing when the stand portion 20 swings, and serves as a non-swinging portion. Therefore, the side-view image capturing unit 45 is provided in the non-swinging unit. Therefore, the side-view image capturing unit 45 can acquire a side-view image including the mounting table 31 in a state where the relationship with the swing operation of the stand unit 20 is eliminated.

また、側視画像撮像部45の取付位置を調整する位置調整機構を設けることができる。位置調整機構は、側視画像撮像部45をX方向、Z方向、軸U回りの回転方向に調整することができる。側視画像撮像部45の取付位置は、工場出荷前に行うのが好ましい。   In addition, a position adjusting mechanism for adjusting the mounting position of the side-view image capturing unit 45 can be provided. The position adjustment mechanism can adjust the side-view image capturing unit 45 in the X direction, the Z direction, and the rotation direction around the axis U. It is preferable that the attachment position of the side-view image pickup unit 45 be performed before shipment from the factory.

また、側視画像撮像部45の焦点距離は、拡大観察画像撮像部50の焦点距離よりも長く設定されている。この理由については後述する。   The focal length of the side-view image capturing unit 45 is set longer than the focal length of the magnified observation image capturing unit 50. The reason will be described later.

(実施形態2)
図8は、本発明の実施形態2に係る観察部1を示すものである。この実施形態2では、ベース部10に側視画像撮像部45が設けられている点で、実施形態1とは異なっており、他の部分は実施形態1と同じであるため、以下、実施形態1と同じ部分には同じ符号を付して説明を省略し、異なる部分について説明する。
(Embodiment 2)
FIG. 8 shows the observation unit 1 according to the second embodiment of the present invention. The second embodiment is different from the first embodiment in that the base unit 10 is provided with the side-view image capturing unit 45, and the other parts are the same as the first embodiment. The same reference numerals are given to the same portions as 1 and the description is omitted, and different portions will be described.

実施形態2のベース部10には、載置台31の後方に、非揺動部としての撮像部支持部49が上方へ突出するように設けられている。この撮像部支持部49の上部に側視画像撮像部45が取り付けられている。これにより、スタンド部20(ヘッド部22)の揺動動作との関連を無くした状態で、側視画像撮像部45が載置台31を含む側視画像を取得することができる。また、実施形態1、2では、側視画像撮像部45の高さを常に一定にすることができる。   In the base part 10 of the second embodiment, an imaging part supporting part 49 as a non-swinging part is provided behind the mounting table 31 so as to protrude upward. A side-view image capturing unit 45 is attached to an upper portion of the image capturing unit support 49. Thereby, the side-view image capturing unit 45 can acquire the side-view image including the mounting table 31 in a state where the association with the swing operation of the stand unit 20 (the head unit 22) is eliminated. Further, in the first and second embodiments, the height of the side-view image capturing unit 45 can be always kept constant.

(実施形態3)
図9は、本発明の実施形態3に係る観察部1を示すものである。この実施形態3では、ヘッド部22に側視画像撮像部45が設けられていて、側視画像撮像部45を対物レンズ25と同方向に移動させることが可能に構成されている点で、実施形態1とは異なっており、他の部分は実施形態1と同じであるため、以下、実施形態1と同じ部分には同じ符号を付して説明を省略し、異なる部分について説明する。
(Embodiment 3)
FIG. 9 shows the observation unit 1 according to the third embodiment of the present invention. The third embodiment is different from the third embodiment in that a side-view image capturing unit 45 is provided in the head unit 22 and the side-view image capturing unit 45 can be moved in the same direction as the objective lens 25. Since the third embodiment is different from the first embodiment and the other parts are the same as those of the first embodiment, the same parts as those of the first embodiment will be denoted by the same reference numerals, and the description thereof will be omitted.

実施形態3のヘッド部22には、レボルバ26の後方に撮像部支持部49が下方へ突出するように設けられている。この撮像部支持部49の下部に側視画像撮像部45が取り付けられている。ヘッド部22に側視画像撮像部45が取り付けられることになるので、ヘッド部22の上下方向への移動に連動して側視画像撮像部45を移動させることができ、側視画像撮像部45の高さを変化させることができる。実施形態3では、側視画像撮像部45と対物レンズ25と拡大観察画像撮像部50とがヘッド部22に取り付けられることになるので、それらの相対的な位置関係が変化しない。   In the head section 22 of the third embodiment, an imaging section support section 49 is provided behind the revolver 26 so as to protrude downward. A side-view image capturing unit 45 is attached to a lower portion of the image capturing unit support unit 49. Since the side-view image pickup unit 45 is attached to the head unit 22, the side-view image pickup unit 45 can be moved in conjunction with the vertical movement of the head unit 22, and the side-view image pickup unit 45 can be moved. Height can be changed. In the third embodiment, since the side-view image capturing unit 45, the objective lens 25, and the magnified observation image capturing unit 50 are attached to the head unit 22, their relative positional relationship does not change.

実施形態3では、対物レンズ25の焦点位置が側視画像撮像部45の視野範囲に入るように、側視画像撮像部45の位置を設定することができる。対物レンズ25の焦点位置が側視画像撮像部45の視野の中心に来るようにするのが好ましい。また、撮像部支持部49は、スタンド本体21に設けてもよい。   In the third embodiment, the position of the side-view image capturing unit 45 can be set such that the focal position of the objective lens 25 falls within the visual field range of the side-view image capturing unit 45. It is preferable that the focal position of the objective lens 25 be located at the center of the field of view of the side-view image capturing unit 45. Further, the imaging section support section 49 may be provided on the stand body 21.

(実施形態4)
図10及び図11は、本発明の実施形態4に係る観察部1を示すものである。実施形態4では、ベース部10に、1つの支持部14(図11に示す)を上方へ突出するように設けている。他の部分は、実施形態1と同じであるため、以下、実施形態1と同じ部分には同じ符号を付して説明を省略し、異なる部分について説明する。
(Embodiment 4)
10 and 11 show the observation unit 1 according to the fourth embodiment of the present invention. In the fourth embodiment, one support portion 14 (shown in FIG. 11) is provided on the base portion 10 so as to protrude upward. The other parts are the same as those of the first embodiment. Therefore, the same parts as those of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.

支持部14には、軸受孔14aが該支持部14を前後方向に貫通するように形成されており、この軸受孔14aに後側軸受41及び前側軸受42の外輪部材が嵌め込まれている。揺動軸40の後側及び前側は、それぞれ、スタンド本体21の後側取付部27及び前側取付部28を前後方向に貫通するように形成されており、後側取付部27及び前側取付部28に固定されている。この揺動軸40の内部に側視画像撮像部45が設けられている。   A bearing hole 14a is formed in the support portion 14 so as to penetrate the support portion 14 in the front-rear direction, and outer ring members of the rear bearing 41 and the front bearing 42 are fitted into the bearing hole 14a. The rear side and the front side of the swing shaft 40 are formed so as to penetrate the rear mounting portion 27 and the front mounting portion 28 of the stand main body 21 in the front-rear direction, respectively, and the rear mounting portion 27 and the front mounting portion 28 are provided. It is fixed to. A side-view image pickup unit 45 is provided inside the swing shaft 40.

実施形態4では、スタンド部20を揺動させると、側視画像撮像部45が揺動軸40と共に回動することになるが、側視画像撮像部45は軸Uの近傍に位置しているので、軸Uから遠い場所に位置する場合に比べて、スタンド部20の揺動に伴う変位量は小さなものになる。従って、側視画像撮像部45は、スタンド部20の揺動動作との関連を低くした状態で、載置台31を含む側視画像を取得するように設けられることになる。   In the fourth embodiment, when the stand unit 20 is swung, the side-view image pickup unit 45 rotates together with the swing shaft 40, but the side-view image pickup unit 45 is located near the axis U. Therefore, the amount of displacement due to the swing of the stand unit 20 is smaller than when the stand unit 20 is located far from the axis U. Therefore, the side-view image capturing unit 45 is provided so as to acquire the side-view image including the mounting table 31 in a state where the relationship with the swing operation of the stand unit 20 is reduced.

(実施形態5)
図12及び図13は、本発明の実施形態5に係る観察部1を示すものである。実施形態5では、ベース部10に、1つの支持部15(図13に示す)を上方へ突出するように設けている。以下に説明する部分以外は、実施形態1と同じであるため、以下、実施形態1と同じ部分には同じ符号を付して説明を省略し、異なる部分について説明する。
(Embodiment 5)
12 and 13 show the observation unit 1 according to the fifth embodiment of the present invention. In the fifth embodiment, one support portion 15 (shown in FIG. 13) is provided on the base portion 10 so as to protrude upward. Except for the parts described below, the configuration is the same as that of the first embodiment. Therefore, the same parts as those of the first embodiment are denoted by the same reference numerals, description thereof will be omitted, and different parts will be described.

支持部15には、円筒部材15aが前方へ突出するように固定されている。円筒部材15aの軸心は軸U上に位置している。スタンド部20には、軸受孔20aが該スタンド部20を前後方向に貫通するように形成されており、この軸受孔20aに後側軸受41及び前側軸受42の外輪部材が嵌め込まれている。後側軸受41及び前側軸受42の内輪部材には、円筒部材15aが挿入されている。よって、この実施形態5では、スタンド部20が円筒部材15a回りに揺動することになる。実施形態5の揺動軸は仮想軸であり、軸Uである。円筒部材15aの内部に側視画像撮像部45が設けられている。実施形態5の場合、スタンド部20の揺動動作との関連を無くした状態で、側視画像撮像部45が載置台31を含む側視画像を取得することができる。   A cylindrical member 15a is fixed to the support portion 15 so as to protrude forward. The axis of the cylindrical member 15a is located on the axis U. A bearing hole 20a is formed in the stand portion 20 so as to penetrate the stand portion 20 in the front-rear direction, and outer ring members of a rear bearing 41 and a front bearing 42 are fitted into the bearing hole 20a. The cylindrical member 15 a is inserted into the inner ring member of the rear bearing 41 and the front bearing 42. Therefore, in the fifth embodiment, the stand 20 swings around the cylindrical member 15a. The swing axis of the fifth embodiment is a virtual axis, which is the axis U. A side-view image capturing unit 45 is provided inside the cylindrical member 15a. In the case of the fifth embodiment, the side-view image capturing unit 45 can acquire the side-view image including the mounting table 31 in a state where the relationship with the swing operation of the stand unit 20 is eliminated.

(実施形態6)
図14及び図15は、本発明の実施形態6に係る観察部1を示すものである。実施形態6では、ベース部10に、円弧状のレール部材17を設けている。以下に説明する部分以外は、実施形態1と同じであるため、以下、実施形態1と同じ部分には同じ符号を付して説明を省略し、異なる部分について説明する。
(Embodiment 6)
14 and 15 show the observation unit 1 according to Embodiment 6 of the present invention. In the sixth embodiment, an arc-shaped rail member 17 is provided on the base portion 10. Except for the parts described below, the configuration is the same as that of the first embodiment. Therefore, the same parts as those of the first embodiment are denoted by the same reference numerals, description thereof will be omitted, and different parts will be described.

ベース部10には、拡大観察画像撮像部50の光軸に直交する方向(Y方向)に延びる仮想軸を中心とし、かつ、所定半径を持つ円弧状のレール部材17が上方へ突出するように設けられている。この仮想軸が揺動軸である。また、ベース部10には、側視画像撮像部45が取り付けられる撮像部支持部16が設けられている。   The base unit 10 has an arcuate rail member 17 having a predetermined radius centered on a virtual axis extending in a direction (Y direction) orthogonal to the optical axis of the magnified observation image capturing unit 50 so as to protrude upward. Is provided. This virtual axis is the swing axis. In addition, the base unit 10 is provided with an imaging unit support unit 16 to which the side-view image imaging unit 45 is attached.

図15に示すように、レール部材17には、可動部材29が取り付けられている。可動部材29は、レール部材17の延びる方向には移動するが、レール部材17から離脱する方向には移動しないように、レール部材17に係合している。可動部材29には、対物レンズ25及び拡大観察画像撮像部50が取り付けられるので、可動部材29は支持部材に相当する。可動部材29がレール部材17に沿って移動することで、拡大観察画像撮像部50の光軸に直交する前記仮想軸回りに可動部材29が揺動することになり、これに伴って対物レンズ25が揺動する。実施形態6の場合も、スタンド部20の揺動動作との関連を無くした状態で、側視画像撮像部45が載置台31を含む側視画像を取得することができる。   As shown in FIG. 15, a movable member 29 is attached to the rail member 17. The movable member 29 is engaged with the rail member 17 so as to move in the direction in which the rail member 17 extends, but not to move in the direction away from the rail member 17. Since the objective lens 25 and the magnified observation image capturing unit 50 are attached to the movable member 29, the movable member 29 corresponds to a support member. When the movable member 29 moves along the rail member 17, the movable member 29 swings around the virtual axis orthogonal to the optical axis of the magnified observation image capturing unit 50, and the objective lens 25 Swings. Also in the case of the sixth embodiment, the side-view image capturing unit 45 can acquire the side-view image including the mounting table 31 in a state where the relationship with the swing operation of the stand unit 20 is eliminated.

以下に説明する構成は、実施形態1〜6に共通している。   The configuration described below is common to the first to sixth embodiments.

(ユーセントリック機構)
観察部1は、ユーセントリック観察が行えるように構成されている。すなわち、拡大観察装置Aにおいては、上記のX方向、Y方向およびZ方向にそれぞれ平行な3つの軸で形成される装置固有の三次元座標系が定義されている。記憶部89には、拡大観察装置Aの三次元座標系における後述する交差位置の座標がさらに記憶されている。交差位置の座標情報は、拡大観察装置Aの工場出荷時に予め記憶部89に記憶されていてもよい。また、記憶部89に記憶される交差位置の座標情報は、拡大観察装置Aの使用者により更新可能であってもよい。
(Eucentric mechanism)
The observation unit 1 is configured to perform eucentric observation. That is, in the magnifying observation apparatus A, an apparatus-specific three-dimensional coordinate system defined by three axes parallel to the X, Y, and Z directions is defined. The storage unit 89 further stores coordinates of an intersection position described later in the three-dimensional coordinate system of the magnifying observation apparatus A. The coordinate information of the intersection position may be stored in the storage unit 89 before shipment of the magnifying observation apparatus A from the factory. Further, the coordinate information of the intersection position stored in the storage unit 89 may be updateable by a user of the magnifying observation apparatus A.

対物レンズ25の光軸は軸Uに交差している。対物レンズ25が軸Uを中心として揺動する場合、対物レンズ25の光軸と軸Uとの交差位置が一定に維持されつつ載置台31の上面に対する光軸の角度が変化する。このように、使用者は、対物レンズ25をヘッド部22によって軸Uを中心として揺動させた際、例えば、観察対象物の観察対象部分が上記の交差位置にある場合には、対物レンズ25が傾斜した状態になったとしても、拡大観察画像撮像部50の視野中心が同じ観察対象部分から移動しないユーセントリック関係が維持される。したがって、観察対象物の観察対象部分が拡大観察画像撮像部50の視野(対物レンズ25の視野)から外れることを防止することができる。   The optical axis of the objective lens 25 intersects the axis U. When the objective lens 25 swings about the axis U, the angle of the optical axis with respect to the upper surface of the mounting table 31 changes while the intersection position between the optical axis of the objective lens 25 and the axis U is kept constant. As described above, when the user swings the objective lens 25 about the axis U by the head unit 22, for example, when the observation target portion of the observation target object is at the above-mentioned intersection position, the objective lens 25 Even if is inclined, the eucentric relationship in which the center of the visual field of the magnified observation image capturing unit 50 does not move from the same observation target portion is maintained. Therefore, it is possible to prevent the observation target portion of the observation target from deviating from the visual field of the magnified observation image capturing unit 50 (the visual field of the objective lens 25).

(表示部2の構成)
表示部2は、例えば、液晶表示パネルや有機ELパネル等のようなカラー表示可能な表示画面2aを有しており、外部から電力が供給されるようになっている。表示画面2aにタッチ操作パネル(受付部の一例)を組み込むようにしてもよい。また、この実施形態では、図4に示すように、表示部2に制御部60を組み込んだ例で説明しているが、これに限らず、制御部60は観察部1に組み込むようにしてもよいし、コントローラ部3に組み込むようにしてもよいし、表示部2、観察部1及びコントローラ部3とは別体の外部ユニットとしてもよい。表示部2と、観察部1とはケーブル5によって信号の送受が可能に接続されている。ケーブル5には、側視画像撮像部45による撮像データを送信するケーブル45b(図5に示す)も含まれている。観察部1への電力供給は、ケーブル5によって行ってもよいし、図示しない電源ケーブルによって行ってもよい。
(Configuration of the display unit 2)
The display unit 2 has a display screen 2a capable of color display, such as a liquid crystal display panel or an organic EL panel, and is supplied with power from the outside. A touch operation panel (an example of a receiving unit) may be incorporated in the display screen 2a. Further, in this embodiment, as shown in FIG. 4, an example in which the control unit 60 is incorporated in the display unit 2 is described. However, the present invention is not limited to this, and the control unit 60 may be incorporated in the observation unit 1. Alternatively, the display unit 2, the observation unit 1, and the controller unit 3 may be configured as an external unit separate from the controller unit 3. The display unit 2 and the observation unit 1 are connected by a cable 5 so that signals can be transmitted and received. The cable 5 also includes a cable 45b (shown in FIG. 5) for transmitting image data obtained by the side-view image capturing unit 45. The power supply to the observation unit 1 may be performed by a cable 5 or a power cable (not shown).

(コントローラ部3の構成)
コントローラ部3は制御部60に接続されており、一般的なキーボードやマウスとは異なっており、観察部1を操作したり、各種情報の入力や選択操作、画像の選択操作、領域指定、位置指定等を行うことが可能な専用の操作デバイスである。尚、この図17に示すように、マウス4及びキーボード6も制御部60に接続されている。マウス4及びキーボード6は、従来から周知のコンピュータ操作用の機器である。
(Configuration of the controller unit 3)
The controller unit 3 is connected to the control unit 60, and is different from a general keyboard and mouse. The controller unit 3 operates the observation unit 1, inputs and selects various information, selects an image, selects an area, specifies an area, This is a dedicated operation device capable of performing designation and the like. As shown in FIG. 17, the mouse 4 and the keyboard 6 are also connected to the control unit 60. The mouse 4 and the keyboard 6 are conventionally known devices for computer operation.

拡大観察装置Aには、上述した機器や装置以外にも、操作や制御を行うための装置、プリンタ、その他の各種処理を行うためのコンピュータ、記憶装置、周辺機器等を接続することもできる。この場合の接続は、例えば、IEEE1394、RS−232xやRS−422、USB等のシリアル接続、パラレル接続、あるいは10BASE−T、100BASE−TX、1000BASE−T等のネットワークを介して電気的、あるいは磁気的、光学的に接続する方法等を挙げることができる。また、有線接続以外にも、IEEE802.x等の無線LANやBluetooth(登録商標)等の電波、赤外線、光通信等を利用した無線接続等でもよい。さらにデータの交換や各種設定の保存等を行うための記憶装置に用いる記憶媒体としては、例えば、各種メモリカードや磁気ディスク、光磁気ディスク、半導体メモリ、ハードディスク等を利用することができる。尚、拡大観察装置Aは、上記各種ユニットや装置、機器を組み合わせた拡大観察システムということもできる。   In addition to the above-described devices and devices, a device for performing operations and controls, a printer, a computer for performing various other processes, a storage device, a peripheral device, and the like can also be connected to the magnifying observation device A. The connection in this case may be, for example, a serial connection such as IEEE 1394, RS-232x, RS-422, or USB, a parallel connection, or an electrical or magnetic connection via a network such as 10BASE-T, 100BASE-TX, or 1000BASE-T. And optical connection methods. In addition to the wired connection, IEEE802. Wireless connection using radio waves such as wireless LAN such as x, Bluetooth (registered trademark), infrared rays, optical communication, or the like may be used. Further, as a storage medium used for a storage device for exchanging data and storing various settings, for example, various memory cards, magnetic disks, magneto-optical disks, semiconductor memories, hard disks, and the like can be used. Note that the magnifying observation apparatus A can also be referred to as a magnifying observation system combining the various units, devices, and devices described above.

(制御部60の構成)
制御部60は、拡大観察装置Aの各部を制御するとともに各種演算及び処理等を行うためのユニットであり、CPUやMPU、システムLSI、DSPや専用ハードウェア等で構成することができる。図17に示すように、制御部60には、画像処理部61、エッジ抽出部62、オートフォーカス部63、表示制御部64、背景影響低減部65、位置指標算出部66、合成処理部67及び水平化部68が設けられている。制御部60を構成している各部は、後述するように様々な機能を実現可能な部分であるが、これらは論理回路によって実現されていてもよいし、ソフトウェアを実行することによって実現されていてもよいし、それらの組み合わせで実現されていてもよい。制御部60を構成している各部は、一部が観察部1に内蔵されていて、他の部分が表示部2に内蔵されていてもよいし、一部がコントローラ部3に内蔵されていてもよい。
(Configuration of the control unit 60)
The control unit 60 is a unit that controls various units of the magnifying observation apparatus A and performs various calculations and processes, and can be configured with a CPU, an MPU, a system LSI, a DSP, dedicated hardware, and the like. As shown in FIG. 17, the control unit 60 includes an image processing unit 61, an edge extraction unit 62, an autofocus unit 63, a display control unit 64, a background influence reduction unit 65, a position index calculation unit 66, a synthesis processing unit 67, A leveling unit 68 is provided. Each unit constituting the control unit 60 is a unit capable of realizing various functions as described later, but these may be realized by a logic circuit, or realized by executing software. Or a combination thereof. Each part constituting the control unit 60 may be partly built in the observation unit 1 and another part may be built in the display unit 2, or may be partly built in the controller unit 3. Is also good.

表示制御部64は、図16に示すようなユーザーインターフェース70を生成し、このユーザーインターフェースが表示部2の表示画面2aに表示されるように表示部2を制御する。ユーザーインターフェース70は、拡大観察画像撮像部50で取得された画像を表示する拡大観察画像表示領域70aと、側視画像撮像部45で取得された画像を表示する側視画像表示領域70bとを有している。拡大観察画像表示領域70aと側視画像表示領域70bの大きさは一方を小さくしてもよいし、同じ大きさにしてもよい。本例では、表示制御部64により、拡大観察用画像を側視画像よりも大きく表示させるようにしている。   The display control unit 64 generates a user interface 70 as shown in FIG. 16 and controls the display unit 2 so that the user interface is displayed on the display screen 2a of the display unit 2. The user interface 70 includes a magnified observation image display area 70a for displaying an image acquired by the magnified observation image capturing unit 50, and a side-view image display area 70b for displaying an image acquired by the side-view image capturing unit 45. are doing. One of the size of the enlarged observation image display area 70a and the size of the side view image display area 70b may be smaller or the same. In this example, the display control unit 64 displays the enlarged observation image larger than the side-view image.

側視画像表示領域70bに表示される側視画像には、図20に拡大して示すように、載置台31の少なくとも上面と、観察対象物100と、対物レンズ25とが含まれている。言い換えると、載置台31の少なくとも上面と、観察対象物100と、対物レンズ25とが含まれるように、側視画像撮像部45の光学系(レンズ)の画角、側視画像撮像部45と観察対象物100等との距離が設定されている。対物レンズ25は、その下端部のみが側視画像撮像部45の視野に入るようにしてもよい。   The side-view image displayed in the side-view image display area 70b includes at least the upper surface of the mounting table 31, the observation target 100, and the objective lens 25, as shown in an enlarged manner in FIG. In other words, the angle of view of the optical system (lens) of the side-view image pickup unit 45 and the angle of view of the side-view image pickup unit 45 include at least the upper surface of the mounting table 31, the observation target 100, and the objective lens 25. The distance from the observation target 100 or the like is set. Only the lower end of the objective lens 25 may be in the field of view of the side-view image capturing unit 45.

制御部60は、対物レンズ25及び観察対象物100のうち、側視画像撮像部45の視野外に位置しているものを表示部2に模式図で表示することができるように構成されている。この例を図26に示す。図26における薄墨が付されていない部分は、側視画像撮像部45の視野であり、側視画像撮像部45で撮像された側視画像である。図26における薄墨が付されている部分は、模式図である。側視画像撮像部45の視野外に対物レンズ25Aが存在しており、この部分は、記憶部89に記憶されている対物レンズ25Aの形状または寸法に関する情報を用いて描画された部分である。レボルバ26についても、形状または寸法に関する情報を記憶部89に記憶しておけばよく、こうすることで模式図として表示することができる。   The control unit 60 is configured to be able to display, on the display unit 2, a schematic view of the objective lens 25 and the observation target object 100 located outside the field of view of the side-view image capturing unit 45. . This example is shown in FIG. In FIG. 26, the portion without black ink is the field of view of the side-view image capturing unit 45, which is the side-view image captured by the side-view image capturing unit 45. The portion with light black in FIG. 26 is a schematic diagram. The objective lens 25A exists outside the field of view of the side-view image capturing unit 45, and this portion is a portion drawn using information on the shape or size of the objective lens 25A stored in the storage unit 89. Regarding the revolver 26 as well, information on the shape or dimensions may be stored in the storage unit 89, and by doing so, it can be displayed as a schematic diagram.

また、図45は、観察対象物100が側視画像撮像部45の視野外に位置している場合を示しており、この場合は、対物レンズ25と載置台31との距離を表示することができるようになっている。   FIG. 45 illustrates a case where the observation target object 100 is located outside the field of view of the side-view image capturing unit 45. In this case, the distance between the objective lens 25 and the mounting table 31 may be displayed. I can do it.

図27に示すように、観察対象物100の上面を示す指標91を表示部2に表示させることができる。観察対象物100の上面は、後述するエッジ抽出部62によって取得することができる。対物レンズ25を切り替えるためにレボルバ26を回転させると、切替後の対物レンズ25Aが切替動作の途中において観察対象物100の上面を示す指標91に触れることが分かる。これにより、対物レンズ25Aに切り替える前に、対物レンズ25Aと観察対象物100とが衝突することが分かる。指標91を表示部2に表示させることで、レボルバ26を回転させる際に対物レンズ25と観察対象物100との衝突を回避することができる。   As shown in FIG. 27, the indicator 91 indicating the upper surface of the observation target 100 can be displayed on the display unit 2. The upper surface of the observation target 100 can be obtained by an edge extraction unit 62 described later. When the revolver 26 is rotated to switch the objective lens 25, it can be seen that the switched objective lens 25A touches the index 91 indicating the upper surface of the observation target 100 during the switching operation. This indicates that the objective lens 25A collides with the observation target 100 before switching to the objective lens 25A. By displaying the index 91 on the display unit 2, it is possible to avoid collision between the objective lens 25 and the observation target 100 when the revolver 26 is rotated.

また、対物レンズ25と観察対象物100の衝突回避の方法としては、例えば図33に示すように、観察対象物100のうち、最も高い部分をエッジ抽出等により求めて、その部分から上方へ向かって注意領域93を設定し、この注意領域93を側視画像に重畳表示してもよい。これにより、例えば使用者が位置指定を行う際に、対物レンズ25が衝突し易い部分を事前に認識しておくことができるので、対物レンズ25と観察対象物100との衝突を回避することができる。注意領域93は、図33において薄墨で示す部分である。注意領域93の表示形態としては、例えば、着色、斜線表示等を挙げることができるが、これらに限られるものではない。   As a method for avoiding collision between the objective lens 25 and the observation target 100, for example, as shown in FIG. 33, the highest part of the observation target 100 is obtained by edge extraction or the like, and upward from that part. The attention area 93 may be set in such a manner that the attention area 93 is superimposed on the side-view image. Thus, for example, when the user designates a position, a portion where the objective lens 25 is likely to collide can be recognized in advance, so that collision between the objective lens 25 and the observation object 100 can be avoided. it can. The attention area 93 is a part indicated by light black in FIG. Examples of the display mode of the attention area 93 include coloring, hatching, and the like, but are not limited thereto.

図34に示すように、ヘッド部22を揺動させると、注意領域93もヘッド部22の揺動角度に対応して傾斜した状態になる。   As shown in FIG. 34, when the head unit 22 is swung, the attention area 93 is also inclined in accordance with the swing angle of the head unit 22.

(エッジ抽出部62の構成)
エッジ抽出部62は、側視画像に含まれている観察対象物100の上面をエッジとして抽出するエッジ抽出処理を行うように構成されている。エッジとは、広義には観察対象物100の輪郭、外形線と定義できるが、本例では、観察対象物100を側方から見たときの上面をエッジとして抽出する場合について説明する。エッジ抽出処理自体は従来から周知の手法を用いることができ、例えば、画像上の各画素の画素値を取得し、画像上の画素値の変化がエッジ検出用のしきい値以上となる領域が存在する場合に、その境界部分がエッジであるとして抽出する。観察対象物100の上面をエッジとして抽出すると、表示制御部64は、図21に示すように、エッジを観察対象物エッジ表示線71aにて表示するように、表示部2を制御する。観察対象物エッジ表示線71aは、例えば、太線、破線、赤色や黄色等の目立つ色の線等で構成することができるが、これらに限られるものではなく、点滅表示する形態等であってもよい。観察対象物エッジ表示線71aが複数ある場合には、最も上に位置する観察対象物エッジ表示線71aのみ表示させるようにしてもよい。
(Configuration of Edge Extraction Unit 62)
The edge extraction unit 62 is configured to perform an edge extraction process of extracting an upper surface of the observation target 100 included in the side-view image as an edge. The edge can be defined in a broad sense as a contour or an outline of the observation target 100. In this example, a case where the upper surface of the observation target 100 when viewed from the side is extracted as an edge will be described. The edge extraction processing itself can use a conventionally known method.For example, the pixel value of each pixel on the image is obtained, and the region where the change of the pixel value on the image is equal to or larger than the threshold value for edge detection is obtained. If there is, the boundary is extracted as an edge. When the upper surface of the observation target object 100 is extracted as an edge, the display control unit 64 controls the display unit 2 to display the edge with the observation target object edge display line 71a as shown in FIG. The observation object edge display line 71a can be composed of, for example, a bold line, a dashed line, a line of a conspicuous color such as red or yellow, but is not limited thereto. Good. When there are a plurality of observation object edge display lines 71a, only the uppermost observation object edge display line 71a may be displayed.

エッジ抽出部62は、上述したような手法により、側視画像に含まれている対物レンズ25の下端部もエッジとして抽出する。対物レンズ25の下端部をエッジとして抽出すると、表示制御部64は、図21に示すように、エッジを対物レンズエッジ表示線71bにて表示するように、表示部2を制御する。対物レンズエッジ表示線71bは、観察対象物エッジ表示線71aと同様に構成することができる。対物レンズエッジ表示線71bと、観察対象物エッジ表示線71aとの表示形態は異なっていてもよいし、同じであってもよい。   The edge extracting unit 62 also extracts the lower end of the objective lens 25 included in the side view image as an edge by the above-described method. When the lower end of the objective lens 25 is extracted as an edge, the display control unit 64 controls the display unit 2 so that the edge is displayed by the objective lens edge display line 71b as shown in FIG. The objective lens edge display line 71b can be configured similarly to the observation object edge display line 71a. The display forms of the objective lens edge display line 71b and the observation object edge display line 71a may be different or the same.

制御部60は、エッジ抽出部62がエッジ抽出処理を行う側視画像を側視画像撮像部45が取得するときに、同軸落射照明51で観察対象物100を照明する照明制御を行うように構成されている。例えば、エッジ抽出処理を行う側視画像を側視画像撮像部45が取得する前に、リング照明87で観察対象物100を照明していた場合には、リング照明87を消灯して同軸落射照明51を点灯させてから、側視画像撮像部45によりエッジ抽出処理用側視画像を取得する。すなわち、リング照明87は、観察対象物100の周囲から光を照射するので、側視画像では光の反射成分が強くなってハレーションを起こす部分が多くなり、エッジ抽出処理が難しくなるおそれがある。照明を消して環境光でエッジを抽出し、オートフォーカスするときには照明を点灯してもよい。同軸落射照明51にすると、側視画像でハレーションが起こり難くなり、エッジ抽出処理が容易になる。   The control unit 60 is configured to perform illumination control for illuminating the observation target object 100 with the coaxial incident illumination 51 when the side-view image capturing unit 45 acquires the side-view image on which the edge extraction unit 62 performs the edge extraction process. Have been. For example, if the observation target 100 is illuminated by the ring illumination 87 before the side-view image capturing unit 45 acquires the side-view image on which the edge extraction process is performed, the ring illumination 87 is turned off and the coaxial incident illumination is turned off. After turning on 51, the side-view image capturing unit 45 acquires a side-view image for edge extraction processing. That is, since the ring illumination 87 irradiates light from the periphery of the observation target object 100, the reflection component of the light becomes strong in the side-view image, and the portion causing halation increases, and there is a possibility that the edge extraction processing becomes difficult. The illumination may be turned off to turn off the illumination, extract the edge with ambient light, and perform autofocus. With the coaxial epi-illumination 51, halation hardly occurs in the side-view image, and the edge extraction processing becomes easy.

(背景影響低減手段)
図22Aに示すように、エッジ抽出処理を行う側視画像には、背景部分(符号72で示す)が含まれていることがある。すなわち、側視画像撮像部45は載置台31や観察対象物100の方を向いており、側視画像撮像部45で取得された側視画像のうち、載置台31や観察対象物100が占める領域は側視画像の一部であり、側視画像の残りの部分には、図22に符号72で示すように観察対象物100よりも遠くにあるもの(載置台31の前端よりも遠くにある背景物)が映り込むことがあり、これが側視画像の背景部分となる。背景部分には、物、人等が含まれることもある。背景部分が側視画像に鮮明に映り込んでいると、載置台31と背景との区別、観察対象物100と背景との区別、対物レンズ25と背景との区別が難しくなり、側視画像において載置台31や観察対象物100、対物レンズ25を把握するのが困難になるおそれがある。特に、背景部分が鮮明に映り込んだ側視画像を使用してエッジ抽出処理を行おうとすると、背景物72の輪郭を抽出してしまう場合があり、観察対象物100や対物レンズ25のエッジを抽出することが困難になる。
(Background influence reduction means)
As shown in FIG. 22A, the side-view image on which the edge extraction processing is performed may include a background portion (indicated by reference numeral 72). That is, the side-view image capturing unit 45 faces the mounting table 31 and the observation target 100, and the mounting table 31 and the observation target 100 occupy in the side-view image acquired by the side-view image capturing unit 45. The area is a part of the side-view image, and the remaining part of the side-view image is located farther than the observation target 100 (farther than the front end of the mounting table 31) as shown by reference numeral 72 in FIG. (A certain background object) may be reflected, and this becomes the background portion of the side-view image. The background portion may include objects, people, and the like. If the background portion is clearly reflected in the side-view image, it becomes difficult to distinguish the mounting table 31 from the background, the observation object 100 from the background, and the objective lens 25 from the background. It may be difficult to grasp the mounting table 31, the observation object 100, and the objective lens 25. In particular, when performing an edge extraction process using a side-view image in which the background portion is clearly reflected, the outline of the background object 72 may be extracted, and the edge of the observation target object 100 or the objective lens 25 may be extracted. It becomes difficult to extract.

本例では、側視画像撮像部45で取得された側視画像のうち、側視画像撮像部45からの距離が観察対象物100までの距離よりも大きい部分である背景部分の影響を低減する背景影響低減手段を備えている。「背景部分の影響を低減する」とは、載置台31と背景との区別、観察対象物100と背景との区別、対物レンズ25と背景との区別が容易に行えるように、背景部分をぼかしたり、背景部分をマスクする方法が含まれるとともに、背景部分でのエッジ抽出ができないように、背景部分をぼかす方法も含まれる。「エッジ抽出ができないように背景部分をぼかす」というのは、エッジ検出用のしきい値に基づいて設定することができ、背景部分における画素値の変化が、エッジ検出用のしきい値未満の変化となるようにすることである。   In the present example, the influence of the background portion, which is a portion of the side-view image acquired by the side-view image capturing unit 45, whose distance from the side-view image capturing unit 45 is larger than the distance to the observation target 100, is reduced. Background effect reduction means is provided. “Reducing the influence of the background portion” means that the background portion is blurred so that the mounting table 31 can be easily distinguished from the background, the observation object 100 can be distinguished from the background, and the objective lens 25 can be easily distinguished from the background. And a method of masking the background portion, and a method of blurring the background portion so that edges cannot be extracted in the background portion. "Blur the background part so that edges cannot be extracted" can be set based on the threshold value for edge detection, and the change in pixel value in the background part is less than the threshold value for edge detection. It is to make a change.

背景影響低減手段の一例として、側視画像撮像部45の被写界深度を設定する被写界深度設定手段を挙げることができる。側視画像撮像部45の被写界深度の設定により、背景部分が載置台41や観察対象物100に比べてぼけた側視画像を取得することができる。背景部分がぼけることで、背景部分の影響を低減することができる。被写界深度設定手段は、例えば絞り、側視画像撮像部45が有するレンズの画角(焦点距離)等とすることができ、周知の計算式による机上計算で被写界深度を計算することもできるし、実験によって適切な絞り量や画角を設定することができる。視画像撮像部45の焦点距離を、拡大観察画像撮像部50の焦点距離よりも長く設定することで、背景部分が載置台41や観察対象物100に比べてぼけた側視画像を取得することができる。   As an example of the background influence reducing unit, a depth of field setting unit that sets the depth of field of the side-view image capturing unit 45 can be given. By setting the depth of field of the side-view image capturing unit 45, a side-view image in which the background portion is more blurred than the mounting table 41 or the observation target 100 can be acquired. By blurring the background portion, the influence of the background portion can be reduced. The depth-of-field setting means may be, for example, an aperture, an angle of view (focal length) of a lens included in the side-view image capturing unit 45, and the like. It is also possible to set an appropriate aperture and an angle of view by experiment. By setting the focal length of the visual image capturing unit 45 to be longer than the focal length of the magnified observation image capturing unit 50, a side-view image in which the background portion is blurred compared to the mounting table 41 or the observation target 100 is obtained. Can be.

側視画像撮像部45の被写界深度は、絞りやレンズの画角等によって任意に設定することができ、本例では、載置台31における側視画像撮像部45に近い側の端部と、載置台31における側視画像撮像部45から最も離れた側の端部との間としている。載置台31における側視画像撮像部45に近い側の端部とは、載置台31の前端部であり、載置台31における側視画像撮像部45から最も離れた側の端部とは、載置台31の後端部である。このように被写界深度を設定することで、図22Bに示すように、載置台31に載置された観察対象物100及び対物レンズ25にピントが合い、背景物72がぼけた側視画像を取得することができる。これにより、観察対象物100及び対物レンズ25が際だった側視画像になる。   The depth of field of the side-view image pickup unit 45 can be arbitrarily set depending on the aperture, the angle of view of the lens, and the like. In this example, the end of the mounting table 31 on the side close to the side-view image pickup unit 45 Between the mounting table 31 and the end farthest from the side-view image capturing unit 45. The end of the mounting table 31 on the side close to the side-view image capturing unit 45 is the front end of the mounting table 31, and the end of the mounting table 31 farthest from the side-view image capturing unit 45 is The rear end of the table 31. By setting the depth of field in this manner, as shown in FIG. 22B, the observation target 100 and the objective lens 25 placed on the placement table 31 are focused, and the side-view image in which the background object 72 is blurred Can be obtained. As a result, the observation target object 100 and the objective lens 25 become outstanding side-view images.

また、側視画像撮像部45の被写界深度は、対物レンズ25の光軸上に焦点が合い、かつ、載置台31におけるスタンド部20から遠い方の端部(載置台31の前端部)で不鮮明となる側視画像を取得するように設定することができる。   The depth of field of the side-view image capturing unit 45 is such that the end of the mounting table 31 that is focused on the optical axis of the objective lens 25 and that is farther from the stand unit 20 (the front end of the mounting table 31). Can be set to obtain a blurred side-view image.

背景影響低減手段の別の例としては、図17に示す背景影響低減部65で構成する例を挙げることができる。背景影響低減部65は、側視画像撮像部45で取得された側視画像の背景部分を判定する背景判定部65aを有している。背景判定部65aは、側視画像撮像部45で撮像中に載置台31を載置部Z方向駆動部83により上下方向に駆動し、側視画像において動かない部分が背景部分であると判定するように構成されている。また、載置台31を載置部Z方向駆動部83により動かす前に、側視画像撮像部45で撮像した移動前画像と、載置台31を載置部Z方向駆動部83により動かした後に、側視画像撮像部45で撮像した移動後画像とを画像処理し、両画像で動かない部分が背景部分であると判定するように構成することもできる。   As another example of the background influence reducing unit, there is an example configured by a background influence reducing unit 65 shown in FIG. The background influence reducing unit 65 includes a background determining unit 65a that determines a background portion of the side-view image acquired by the side-view image capturing unit 45. The background determination unit 65a drives the mounting table 31 in the vertical direction by the mounting unit Z-direction drive unit 83 during imaging by the side-view image capturing unit 45, and determines that a part that does not move in the side-view image is a background portion. It is configured as follows. Further, before the mounting table 31 is moved by the mounting section Z-direction driving section 83, before the movement image captured by the side-view image capturing section 45 and after the mounting table 31 is moved by the mounting section Z-direction driving section 83, The post-movement image captured by the side-view image capturing unit 45 may be subjected to image processing, and a portion that does not move in both images may be determined to be a background portion.

図23Aには、載置台31を載置部Z方向駆動部83により上下方向に駆動する前を実線で示しており、載置台31を載置部Z方向駆動部83により上方向に駆動した後を仮想線で示している。この図に示すように、載置台31を駆動した際に動くのは、載置台31と観察対象物100であり、背景物72は動かない。このことを利用して、駆動前の画像と、駆動後の画像とを画像処理して動いていない部分を抽出し、この部分を背景部分と判定する。つまり、載置台31が第1の位置にあるときに側視画像を取得し、載置部Z方向駆動部83により載置台31を第1の位置から第2の位置に動かした後に側視画像を取得するように、側視画像撮像部45を構成することができ、これにより、背景部分の判定が容易になる。   In FIG. 23A, before the mounting table 31 is driven in the vertical direction by the mounting unit Z-direction driving unit 83 is shown by a solid line, and after the mounting table 31 is driven by the mounting unit Z-direction driving unit 83 in the upward direction. Is indicated by a virtual line. As shown in this figure, when the mounting table 31 is driven, the mounting table 31 and the observation target 100 move, and the background object 72 does not move. Utilizing this, an image before driving and an image after driving are subjected to image processing to extract a non-moving portion, and this portion is determined as a background portion. That is, the side view image is acquired when the mounting table 31 is at the first position, and after the mounting table 31 is moved from the first position to the second position by the mounting unit Z-direction driving unit 83, the side view image is obtained. The side-view image capturing unit 45 can be configured so as to obtain the following.

背景部分の判定方法としては、載置台31をZ方向に駆動する以外にも、載置部XY方向駆動部82によってY方向に駆動するようにしてもよい。また、対物レンズ25を対物レンズZ方向駆動部80により上下方向に駆動することで、対物レンズ25を背景部分として判定してしまうのを回避できる。   As a method of determining the background portion, the mounting table 31 may be driven in the Y direction by the mounting section XY direction drive unit 82 in addition to driving the mounting table 31 in the Z direction. In addition, by driving the objective lens 25 in the vertical direction by the objective lens Z-direction drive unit 80, it is possible to avoid the objective lens 25 being determined as a background portion.

背景判定部65aは、側視画像撮像部45で撮像中に観察対象物100への照明を変化させ、側視画像の各部の明るさに基づいて背景部分を判定するように構成されていてもよい。リング照明87及び同軸落射照明51は、観察対象物100を照明するものであり、リング照明87及び同軸落射照明51の光が背景物72に届くことは殆どない。側視画像撮像部45で撮像中に、リング照明87及び同軸落射照明51の点灯状態を切り替えると、側視画像における観察対象物100の明るさが大きく変化する一方、背景物72の明るさは殆ど変化しないので、このことを画像処理によって検出し、側視画像における明るさの変化が所定未満の部分を背景部分と判定することができる。リング照明87及び同軸落射照明51の点灯状態の切替とは、ON、OFFの切替であってもよいし、明るさの変化であってもよい。   The background determination unit 65a may be configured to change the illumination of the observation target 100 during imaging by the side-view image capturing unit 45 and determine the background portion based on the brightness of each unit of the side-view image. Good. The ring illumination 87 and the coaxial epi-illumination 51 illuminate the observation target 100, and the light of the ring illumination 87 and the co-axial epi-illumination 51 hardly reaches the background object 72. When the lighting state of the ring illumination 87 and the coaxial incident illumination 51 is switched during the imaging by the side-view image capturing unit 45, the brightness of the observation target 100 in the side-view image changes greatly, while the brightness of the background object 72 is Since there is almost no change, this can be detected by image processing, and a portion of the side-view image where the change in brightness is less than a predetermined value can be determined as a background portion. The switching of the lighting state of the ring illumination 87 and the coaxial incident illumination 51 may be switching between ON and OFF, or may be a change in brightness.

背景影響低減部65は、背景判定部65aにより判定された背景部分を画像処理することによって背景部分の影響を低減するように構成されている。例えば、図23Bに示すように、側視画像における背景部分をマスクするマスク処理を行うことができる。マスク処理とは、背景部分を隠す処理であり、完全に隠すようにしてもよいし、背景物72が薄く表示される程度に隠すようにしてもよい。マスク処理は、例えば背景部分に薄く色を付ける処理であってもよいし、背景部分のコントラストを低下させる処理であってもよい。また、背景影響低減部65は、背景部分をぼかす処理を行うようにしてもよい。   The background influence reduction unit 65 is configured to reduce the influence of the background part by performing image processing on the background part determined by the background determination unit 65a. For example, as shown in FIG. 23B, a mask process for masking a background portion in the side view image can be performed. The mask process is a process of hiding the background portion, and may be completely hidden or may be hidden so that the background object 72 is displayed thinly. The mask process may be, for example, a process of giving a light color to the background portion or a process of reducing the contrast of the background portion. Further, the background influence reducing unit 65 may perform a process of blurring the background portion.

上述のようにして背景部分の影響が低減された画像は、図16に示すように、拡大観察用画像と共に表示部2に表示される。   The image in which the influence of the background portion has been reduced as described above is displayed on the display unit 2 together with the enlarged observation image, as shown in FIG.

(対物レンズ25の構成)
図24は、アタッチメント25aが取り付けられた対物レンズ25を含む側視画像の例を示すものである。アタッチメント25aが対物レンズ25の下端部に取り付けられると、その分、載置台31との距離、観察対象物100との距離が短くなる。
(Configuration of Objective Lens 25)
FIG. 24 shows an example of a side view image including the objective lens 25 to which the attachment 25a is attached. When the attachment 25a is attached to the lower end of the objective lens 25, the distance from the mounting table 31 and the distance from the observation target 100 are reduced accordingly.

アタッチメント25aには、識別手段を付与しておくことができる。識別手段としては、例えばバーコード、二次元コード、ICチップ等を挙げることができる。バーコードや二次元コード等のコードを付与する場合、側視画像撮像部45によって撮像することができるように、アタッチメント25aの側面において側視画像撮像部45と対向する部分に表示するのが好ましい。また、ICチップの場合、レボルバ26におけるアタッチメントとの接触部分に接点を設けておき、この接点と介してアタッチメント25aの識別情報を取得するようにするのが好ましい。   The attachment 25a may be provided with an identification means. Examples of the identification means include a barcode, a two-dimensional code, and an IC chip. When a code such as a barcode or a two-dimensional code is given, it is preferable to display the code on a side of the attachment 25a facing the side-view image capturing unit 45 so that the image can be captured by the side-view image capturing unit 45. . In the case of an IC chip, it is preferable that a contact is provided at a contact portion of the revolver 26 with the attachment, and the identification information of the attachment 25a is obtained through the contact.

制御部60は、側視画像撮像部45によって撮像した画像からコードを検出し、従来周知の方法でデコード処理することで、アタッチメント25aの種類を判定することができる。アタッチメント25aの種類を判定することで、アタッチメント25aの外径、上下方向の寸法を把握して、アタッチメント25aの下端部の位置及び外周面の位置を算出することができる。   The control unit 60 can determine the type of the attachment 25a by detecting a code from the image captured by the side-view image capturing unit 45 and performing a decoding process using a conventionally known method. By determining the type of the attachment 25a, the outer diameter and the vertical dimension of the attachment 25a can be grasped, and the position of the lower end portion and the position of the outer peripheral surface of the attachment 25a can be calculated.

また、同様に、対物レンズ25にコードやICチップ等を付与することもできる。この場合も同様にして対物レンズ25の種類、即ち、対物レンズ25の長さ、外径(外形状)を制御部60が把握することができる。   Similarly, a code, an IC chip, or the like can be provided to the objective lens 25. In this case as well, the type of the objective lens 25, that is, the length and the outer diameter (outer shape) of the objective lens 25, can be grasped by the controller 60 in the same manner.

この場合、図17に示す記憶部89には、対物レンズ25の種類、形状、各部の寸法等に関する情報を互いに関連付けて記憶しておき、制御部60が把握した対物レンズ25の種類に対応した形状や寸法に関する情報を記憶部89から読み込んで把握することができる。アタッチメント25aについても同様に記憶部89に記憶させておくことができる。   In this case, the storage unit 89 shown in FIG. 17 stores information on the type, shape, dimensions, and the like of the objective lens 25 in association with each other, and corresponds to the type of the objective lens 25 grasped by the control unit 60. Information on the shape and dimensions can be read from the storage unit 89 and grasped. The attachment 25a can be stored in the storage unit 89 in the same manner.

また、記憶部89には、対物レンズ25の種類と作動距離(ワーキングディスタンス:WD)に関する情報とを互いに関連付けて記憶しておくこともできる。これにより、制御部60が把握した対物レンズ25の種類に対応した作動距離に関する情報を読み込んで、使用中の対物レンズ25の作動距離を把握することができる。   Further, the storage unit 89 may store the type of the objective lens 25 and information on the working distance (working distance: WD) in association with each other. Thereby, the control section 60 can read the information on the working distance corresponding to the type of the objective lens 25 grasped, and grasp the working distance of the objective lens 25 in use.

(画像処理部61の構成)
図17に示す画像処理部61は、側視画像撮像部45で取得された側視画像に基づいて対物レンズ25と観察対象物100との位置関係情報を取得するように構成されている。具体的には、エッジ抽出部62で抽出されたエッジを使用して、対物レンズ25と観察対象物100との位置関係情報を取得することができ、例えば図21に示すように、最も上に位置する観察対象物エッジ表示線71aと、対物レンズエッジ表示線71bの下端部との上下方向の距離を位置関係情報として取得する。この距離の算出手法としては、例えば、側視画像の1画素当たりの実寸法と、観察対象物エッジ表示線71aと対物レンズエッジ表示線71bとの間の画素数とを乗じる方法等がある。
(Configuration of Image Processing Unit 61)
The image processing unit 61 illustrated in FIG. 17 is configured to acquire positional relationship information between the objective lens 25 and the observation target 100 based on the side view image acquired by the side view image capturing unit 45. Specifically, positional relationship information between the objective lens 25 and the observation target object 100 can be acquired using the edge extracted by the edge extraction unit 62. For example, as shown in FIG. The vertical distance between the located observation object edge display line 71a and the lower end of the objective lens edge display line 71b is acquired as positional relationship information. As a method of calculating the distance, for example, there is a method of multiplying the actual dimension per pixel of the side view image by the number of pixels between the observation object edge display line 71a and the objective lens edge display line 71b.

画像処理部61は、記憶部89に記憶されている対物レンズ25の形状または寸法に関する情報を用いて対物レンズ25と観察対象物100との位置関係情報を取得するように構成することもできる。上述したように、制御部60は、対物レンズ25の形状や寸法を把握できるとともに、アタッチメント25aが装着されている場合にはそのアタッチメント25の形状や寸法を把握することができる。これにより、対物レンズ25のエッジ抽出を行うことなく、対物レンズ25の下端部と観察対象物100の上面との距離、アタッチメント25aの下端部と観察対象物100の上面との距離を算出することができる。   The image processing unit 61 can also be configured to acquire positional relationship information between the objective lens 25 and the observation target 100 using information on the shape or size of the objective lens 25 stored in the storage unit 89. As described above, the control unit 60 can grasp the shape and dimensions of the objective lens 25, and can grasp the shape and dimensions of the attachment 25 when the attachment 25a is mounted. Accordingly, the distance between the lower end of the objective lens 25 and the upper surface of the observation target 100 and the distance between the lower end of the attachment 25a and the upper surface of the observation target 100 can be calculated without performing the edge extraction of the objective lens 25. Can be.

例えば図21に示すように、対物レンズ25の外径を把握することで、対物レンズ25の外径を示す外径表示線73を縦線として表示させることができる。対物レンズ25の揺動時には、揺動角度に対応するように、外径表示線73を傾斜させればよい。   For example, as shown in FIG. 21, by grasping the outer diameter of the objective lens 25, an outer diameter display line 73 indicating the outer diameter of the objective lens 25 can be displayed as a vertical line. When the objective lens 25 swings, the outer diameter indicating line 73 may be inclined so as to correspond to the swing angle.

また、側視画像撮像部45を使用者側とは反対側に設けているので、使用者の邪魔にならないレイアウトとすることができるが、使用者側とは反対側から側視画像撮像部45が撮像することになるので、そのまま表示部2に表示させると、左右の関係が使用者側から見たときと反対になる。画像処理部61は、側視画像撮像部45で取得された画像を左右反転させて表示部2に表示させるように構成されている。これにより、側視画像の左右方向を、使用者側から見たときと一致させることができる。   In addition, since the side-view image pickup unit 45 is provided on the side opposite to the user side, a layout that does not obstruct the user can be achieved. However, the side-view image pickup unit 45 from the side opposite to the user side. Is displayed on the display unit 2 as it is, so that the left and right relationship is opposite to that when viewed from the user side. The image processing unit 61 is configured to invert the image acquired by the side-view image capturing unit 45 from side to side and display the image on the display unit 2. Thus, the left-right direction of the side-view image can be matched with that seen from the user side.

(オートフォーカス部63の構成)
オートフォーカス部63は、画像処理部61で取得された対物レンズ25と観察対象物100との位置関係情報と、拡大観察画像撮像部50で取得された拡大観察用画像とに基づいて対物レンズZ軸方向駆動部80を制御して対物レンズ25を上下方向に移動させて対物レンズ25の焦点を探索する。例えば、周知の位相差オートフォーカスやコントラストAF等と同様なアルゴリズムを利用して観察対象物100に焦点が合うまで対物レンズZ軸方向駆動部80によって対物レンズ25を上下方向に移動させる。尚、載置部Z方向駆動部83により載置台31を上下方向に移動させることによって焦点を合わせるようにしてもよい。
(Configuration of the auto focus unit 63)
The autofocus unit 63 is configured to control the objective lens Z based on the positional relationship information between the objective lens 25 and the observation target 100 acquired by the image processing unit 61 and the magnified observation image acquired by the magnified observation image capturing unit 50. By controlling the axial driving unit 80, the objective lens 25 is moved up and down to search for the focal point of the objective lens 25. For example, the objective lens 25 is moved up and down by the objective lens Z-axis direction drive unit 80 using the same algorithm as the well-known phase difference autofocus and contrast AF until the observation object 100 is focused. The focus may be adjusted by moving the mounting table 31 up and down by the mounting section Z-direction drive unit 83.

焦点を合わせる際、対物レンズ25と観察対象物100との位置関係情報を予め取得しているので、対物レンズ25と観察対象物100とが衝突しない範囲で対物レンズ25が観察対象物100に接近するように、対物レンズZ軸方向駆動部80を制御することができる。このように制御したとしても、対物レンズ25と観察対象物100との衝突を回避することができるので、観察準備が完了したときの対物レンズ25の位置が焦点の合う範囲よりも観察対象物100から離れている場合であっても、オートフォーカスによって焦点を合わせることができる。   At the time of focusing, since the positional relationship information between the objective lens 25 and the observation target 100 is obtained in advance, the objective lens 25 approaches the observation target 100 within a range where the objective lens 25 does not collide with the observation target 100. As a result, the objective lens Z-axis direction drive unit 80 can be controlled. Even with such control, the collision between the objective lens 25 and the observation target 100 can be avoided, so that the position of the objective lens 25 when the preparation for observation is completed is larger than the range in which the observation target 100 is in focus. Even when the camera is far from the camera, focus can be achieved by autofocus.

オートフォーカス部63は、記憶部89に記憶されている対物レンズ25の作動距離に関する情報を用いて対物レンズ25の焦点を探索することができる。対物レンズ25の作動距離は対物レンズ25の倍率によって大きく異なっているが、対物レンズ25の作動距離に関する情報を記憶部89から読み込んで、対物レンズ25の作動距離近傍に観察対象物100が存在するように、対物レンズZ軸方向駆動部80を制御することで、オートフォーカスによる焦点合わせが素早く、かつ、正確に行われる。このとき、対物レンズ25の焦点を観察対象物100の最上面に合わせるのが好ましい。これにより、対物レンズ25と観察対象物100との衝突を未然に回避することができる。   The autofocus unit 63 can search for the focal point of the objective lens 25 using the information on the working distance of the objective lens 25 stored in the storage unit 89. Although the working distance of the objective lens 25 greatly varies depending on the magnification of the objective lens 25, information on the working distance of the objective lens 25 is read from the storage unit 89, and the observation target 100 exists near the working distance of the objective lens 25. As described above, by controlling the objective lens Z-axis direction drive unit 80, focusing by autofocus is quickly and accurately performed. At this time, it is preferable that the focus of the objective lens 25 is adjusted to the uppermost surface of the observation object 100. Thereby, the collision between the objective lens 25 and the observation target object 100 can be avoided beforehand.

例えばコントラストが低い等の理由により、オートフォーカス部63による対物レンズ25の焦点の探索が失敗する場合がある。制御部60は、オートフォーカス部63による対物レンズ25の焦点の探索が失敗した場合には、対物レンズZ軸方向駆動部80を停止させて探索を終了する。これにより、対物レンズ25と観察対象物100との衝突を未然に回避することができる。また、オートフォーカス部63による対物レンズ25の焦点の探索が失敗した場合には、探索が失敗したことを報知する表示を表示部2に表示させるようにしてもよい。探索が失敗したことを報知する表示とは、例えば探索を失敗したことのメッセージや、マーク等を挙げることができるが、これらに限られるものではない。オートフォーカス部63による対物レンズ25の焦点の探索が失敗した場合には、音声で探索が失敗したことを報知するようにしてもよい。   For example, the search of the focus of the objective lens 25 by the autofocus unit 63 may fail due to a reason such as low contrast. When the search of the focus of the objective lens 25 by the autofocus unit 63 has failed, the control unit 60 stops the objective lens Z-axis direction driving unit 80 and ends the search. Thereby, the collision between the objective lens 25 and the observation target object 100 can be avoided beforehand. Further, when the search of the focus of the objective lens 25 by the autofocus unit 63 fails, a display notifying that the search has failed may be displayed on the display unit 2. The display for notifying that the search has failed includes, for example, a message indicating that the search has failed, a mark, and the like, but is not limited thereto. When the search of the focus of the objective lens 25 by the autofocus unit 63 fails, the fact that the search has failed may be notified by voice.

また、オートフォーカス部63は、拡大観察画像撮像部50で取得された拡大観察用画像のみに基づいて対物レンズZ軸方向駆動部80を制御し、対物レンズ25を上下方向に移動させて対物レンズ25の焦点を探索するようにしてもよい。   Further, the autofocus unit 63 controls the objective lens Z-axis direction driving unit 80 based on only the magnified observation image acquired by the magnified observation image imaging unit 50, and moves the objective lens 25 in the vertical direction to You may search for 25 focal points.

(受付部)
コントローラ部3、マウス4及びキーボード6は、表示部2に表示された側視画像における使用者による任意の位置の指定を受け付ける受付部である。制御部60は、受付部で受け付けた位置に基づいて拡大観察装置Aを制御するように構成されている。例えば、受付部で受け付けた位置に対物レンズ25の焦点が合うように対物レンズZ軸方向駆動部80を制御する。また、受付部で受け付けた位置に対物レンズ25が移動するように対物レンズZ軸方向駆動部80を制御することもできる。
(Reception section)
The controller unit 3, the mouse 4, and the keyboard 6 are receiving units that receive designation of an arbitrary position by the user in the side-view image displayed on the display unit 2. The control unit 60 is configured to control the magnifying observation apparatus A based on the position received by the receiving unit. For example, the objective lens 25 is controlled so that the objective lens 25 is focused on the position received by the receiving unit. Further, the objective lens Z-axis direction driving unit 80 can be controlled such that the objective lens 25 moves to the position received by the receiving unit.

また、コントローラ部3、マウス4及びキーボード6を操作することで、オートフォーカス部63による対物レンズ25の焦点の探索が失敗した場合に側視画像上で使用者による対物レンズ25の合焦目標位置の指定を受け付けることもできる。つまり、オートフォーカス部63による対物レンズ25の焦点の探索が失敗した場合には、受付部が使用者による位置の指定を受け付けるように構成されている。受付部で受け付けた位置は、実空間での座標上で特定することができる。例えば、座標系1を実空間での座標とし、座標系2を側視画像撮像部45のイメージセンサの画素での座標とし、座標系3を表示部2に表示されている側視画像中の座標とし、これら3つの座標の関連付けておくことで、受付部で受け付けた位置を特定することができる。   In addition, by operating the controller unit 3, the mouse 4, and the keyboard 6, when the search of the focus of the objective lens 25 by the autofocus unit 63 fails, the focus target position of the objective lens 25 by the user on the side-view image. Can also be accepted. That is, when the search of the focal point of the objective lens 25 by the autofocus unit 63 fails, the receiving unit receives the designation of the position by the user. The position received by the receiving unit can be specified on the coordinates in the real space. For example, the coordinate system 1 is a coordinate in a real space, the coordinate system 2 is a coordinate of a pixel of an image sensor of the side-view image capturing unit 45, and the coordinate system 3 in the side-view image displayed on the display unit 2. By associating the coordinates with the three coordinates, the position accepted by the accepting unit can be specified.

オートフォーカス部63は、受付部で受け付けた合焦目標位置に基づいて対物レンズZ軸方向駆動部80を制御する。対物レンズ25の焦点が合焦目標位置まで移動するように、対物レンズZ軸方向駆動部80を制御して対物レンズ25を上下方向に動かす。   The autofocus unit 63 controls the objective lens Z-axis direction driving unit 80 based on the focusing target position received by the receiving unit. The objective lens 25 is moved up and down by controlling the objective lens Z-axis direction driving unit 80 so that the focus of the objective lens 25 moves to the focusing target position.

受付部で合焦目標位置の指定を受け付けた後に対物レンズ25を動かしてもよいし、受付部による使用者の位置の指定を受け付ける前に対物レンズ25を動かすようにしてもよい。すなわち、受付部による使用者の位置の指定を受け付ける前に、画像処理部61で取得された対物レンズ25と観察対象物100との位置関係情報と、拡大観察画像撮像部50で取得された拡大観察用画像とに基づいて対物レンズZ軸方向駆動部80を制御して対物レンズ25の焦点を探索するように構成することもできる。   The objective lens 25 may be moved after receiving the designation of the focus target position in the receiving unit, or the objective lens 25 may be moved before receiving the designation of the user's position by the receiving unit. That is, before receiving the designation of the position of the user by the receiving unit, the positional relationship information between the objective lens 25 and the observation target object 100 acquired by the image processing unit 61 and the enlargement acquired by the enlarged observation image imaging unit 50 It is also possible to configure so that the focus of the objective lens 25 is searched by controlling the objective lens Z-axis direction drive unit 80 based on the observation image.

受付部での位置の指定を反映させた制御としては、例えば、受付部で受け付けた位置が拡大観察画像撮像部50の視野に入るように、観察対象物100を載置台31によって該載置台31の幅方向及び奥行き方向に移動させる制御も含まれる。使用者が、例えば表示部2に表示されている側視画像の右端を位置指定すると、指定した位置が側視画像の中央部近傍に位置するように、載置部XY方向駆動部82を制御部60が制御する。これにより、観察したい部位の指定と、指定した部位の観察が可能になる。   As the control in which the designation of the position in the receiving unit is reflected, for example, the observation target 100 is placed on the mounting table 31 so that the position received by the receiving unit is within the field of view of the enlarged observation image capturing unit 50. The control for moving in the width direction and the depth direction is also included. When the user specifies the position of, for example, the right end of the side-view image displayed on the display unit 2, the control unit controls the mounting unit XY-direction drive unit 82 so that the specified position is located near the center of the side-view image. The unit 60 controls. As a result, it is possible to specify a part to be observed and to observe the specified part.

また、側視画像撮像部45の画角の設定等により、レボルバ26に取り付けられている複数の対物レンズ25が側視画像に含まれるようにすることができる。この場合、使用者が受付部で側視画像上の複数の対物レンズ25のうち、1つの対物レンズ25に対応する位置を指定すると、その位置指定が受け付けられる。受付部で受け付けた位置にある対物レンズ25による観察が可能となるように、制御部60が電動レボルバ駆動部81を制御する。これにより、受付部で受け付けた位置にある対物レンズ25が観察可能位置に来るまで電動レボルバ駆動部81がレボルバ26を回動させる。   In addition, by setting the angle of view of the side-view image capturing unit 45, the plurality of objective lenses 25 attached to the revolver 26 can be included in the side-view image. In this case, if the user specifies a position corresponding to one objective lens 25 among the plurality of objective lenses 25 on the side-view image at the reception unit, the position specification is received. The control unit 60 controls the electric revolver driving unit 81 so that observation by the objective lens 25 at the position received by the receiving unit is enabled. Accordingly, the electric revolver driving unit 81 rotates the revolver 26 until the objective lens 25 at the position received by the receiving unit comes to the observable position.

位置指定を行う際、表示制御部64は、使用者による位置の指定をガイドするガイド表示を、側視画像に重なるように、表示部2に表示させる。ガイド表示は、対物レンズ25の作動距離に関する表示とすることができる。例えば、図40に符号76で示すように、対物レンズ25の作動距離を図形によるガイド表示とすることができる。ガイド表示76は、下に頂点を有する三角形状のものであり、下の頂点が作動距離を示す部分である。また、図42に示すように、対物レンズ25の作動距離(レンズWD)を数値で示したガイド表示であってもよい。この場合、対物レンズ25の下端部と観察対象物100の上面との距離を側視画像上に表示するようにしてもよい。   When the position is specified, the display control unit 64 causes the display unit 2 to display a guide display for guiding the user to specify the position so as to overlap the side view image. The guide display may be a display relating to the working distance of the objective lens 25. For example, as shown by reference numeral 76 in FIG. 40, the working distance of the objective lens 25 can be displayed as a guide by a graphic. The guide display 76 has a triangular shape having a lower vertex, and the lower vertex is a portion indicating the working distance. As shown in FIG. 42, a guide display in which the working distance (lens WD) of the objective lens 25 is indicated by a numerical value may be used. In this case, the distance between the lower end of the objective lens 25 and the upper surface of the observation target 100 may be displayed on the side-view image.

また、ガイド表示は、エッジ抽出部62で抽出されたエッジを観察対象物100の上面として表示する形態であってもよい。例えば、図21に示す観察対象物エッジ表示線71aをガイド表示とすることもできる。これにより、使用者が表示部2上で観察対象物100の上面を認識し易くなる。   Further, the guide display may be in a form in which the edge extracted by the edge extraction unit 62 is displayed as the upper surface of the observation target object 100. For example, the observation object edge display line 71a shown in FIG. 21 may be used as a guide display. This makes it easier for the user to recognize the upper surface of the observation target 100 on the display unit 2.

受付部は、表示部2に表示されている側視画像における観察対象物100の外形、即ち輪郭に対応する位置の指定を受け付けるように構成されている。これにより、使用者が側視画像で指定した位置を、観察対象物100の外形とすることができるので、例えば対物レンズ25と観察対象物100との衝突を回避する等の制御に利用することができる。   The receiving unit is configured to receive the specification of the outer shape of the observation target object 100 in the side-view image displayed on the display unit 2, that is, the position corresponding to the outline. Accordingly, the position specified by the user in the side-view image can be used as the outer shape of the observation target 100, so that it can be used for control such as avoiding collision between the objective lens 25 and the observation target 100, for example. Can be.

受付部は、表示部2に表示されている側視画像における対物レンズ25の下端部に対応する位置の指定を受け付けるように構成されている。これにより、使用者が側視画像で指定した位置を、対物レンズ25の下端部とすることができるので、例えば対物レンズ25と観察対象物100との衝突を回避する等の制御に利用することができる。   The receiving unit is configured to receive designation of a position corresponding to the lower end of the objective lens 25 in the side view image displayed on the display unit 2. Thus, the position specified by the user in the side-view image can be used as the lower end of the objective lens 25, and can be used for control such as avoiding collision between the objective lens 25 and the observation target 100, for example. Can be.

受付部は、図31や図32等に示す側視画像中に表示した位置指定用ポインタ77を操作可能に構成され、該位置指定用ポインタ77により側視画像の任意の位置の指定を受け付けるように構成されている。位置指定用ポインタ77の形状や色は特に限定されるものではない。位置指定ポインタ77と共に、位置指定補助線77aを表示させることができる。位置指定補助線77aは、位置指定ポインタ77と連動して上下方向に移動する。また、図34に示すように、ヘッド部22を揺動させると、ヘッド部22の揺動に対応するように、位置指定補助線77aが傾斜する。   The accepting unit is configured to be operable with the position designation pointer 77 displayed in the side view image shown in FIG. 31 or FIG. 32, and to accept designation of an arbitrary position of the side view image by the position designation pointer 77. Is configured. The shape and color of the position designation pointer 77 are not particularly limited. The position designation auxiliary line 77a can be displayed together with the position designation pointer 77. The position designation auxiliary line 77a moves up and down in conjunction with the position designation pointer 77. Further, as shown in FIG. 34, when the head unit 22 is swung, the position designation auxiliary line 77a is inclined so as to correspond to the swing of the head unit 22.

(合成処理部67の構成)
図17に示す合成処理部67は、拡大観察画像撮像部50の視野内に位置する観察対象物100の高さ方向の所定範囲の全部分に合焦した拡大観察用画像を生成する深度合成処理を行う部分である。深度合成画像は、観察対象物100の高さ方向の所定範囲の高低差が対物レンズ25の被写界深度を超える場合、高さ方向を異ならせて別々に拡大観察画像撮像部50で撮像した画像の中から、合焦した部分だけを抜き出して合成した画像である。深度合成画像を生成するためには従来から周知の深度合成処理を行えばよく、この深度合成処理は、対物レンズZ軸方向駆動部80によって対物レンズ25をZ方向(高さ方向)に移動させながら、複数の静止画像(合成前画像)を拡大観察画像撮像部50で撮像して、合焦している領域を合成することで、画面の広範囲にピントが合っている拡大観察用画像を合成する。この場合は、Z方向の範囲やZ方向の移動ピッチ等によって数十から数百の静止画像を使用する。
(Configuration of the synthesis processing unit 67)
The synthesis processing unit 67 illustrated in FIG. 17 is a depth synthesis process that generates an enlarged observation image focused on the entire portion of a predetermined range in the height direction of the observation target 100 positioned within the field of view of the enlarged observation image imaging unit 50. Is the part that performs When the height difference of the predetermined range in the height direction of the observation target object 100 exceeds the depth of field of the objective lens 25, the depth composite image is captured separately by the enlarged observation image imaging unit 50 with different height directions. This is an image obtained by extracting only the focused portion from the image and combining the extracted portions. A well-known depth synthesis process may be performed to generate a depth synthesis image. In the depth synthesis process, the objective lens 25 is moved in the Z direction (height direction) by the objective lens Z-axis direction driving unit 80. Meanwhile, a plurality of still images (pre-synthesis images) are imaged by the magnified observation image imaging unit 50 and the in-focus area is synthesized to synthesize an image for magnified observation that is in focus over a wide area of the screen. I do. In this case, several tens to several hundreds of still images are used depending on the range in the Z direction, the moving pitch in the Z direction, and the like.

制御部60は、受付部で受け付けた位置を前記所定範囲の上限または下限として深度合成処理を行うように、合成処理部67を制御する。合成処理の前段階として、受付部により、側視画像における前記所定範囲の上限と下限の少なくとも一方に対応する位置の指定を受け付けることができるようになっている。例えば、図25に示すように、破線78により前記所定範囲の上限を指定し、破線79により前記所定範囲の下限を指定することができる。破線78、79は、使用者によるコントローラ部3やマウス4の操作によって別々に上下方向に移動させることができ、これにより、前記所定範囲の上限と下限を任意に設定することが可能になる。図25における「連結領域」が深度合成処理を行う範囲である。   The control unit 60 controls the combination processing unit 67 so as to perform the depth combination processing using the position received by the reception unit as the upper limit or the lower limit of the predetermined range. As a pre-stage of the synthesizing process, the receiving unit can receive designation of a position corresponding to at least one of the upper limit and the lower limit of the predetermined range in the side-view image. For example, as shown in FIG. 25, the upper limit of the predetermined range can be specified by a broken line 78, and the lower limit of the predetermined range can be specified by a broken line 79. The broken lines 78 and 79 can be moved separately in the vertical direction by the user's operation of the controller unit 3 and the mouse 4, whereby the upper and lower limits of the predetermined range can be set arbitrarily. The “connected region” in FIG. 25 is a range in which the depth combining process is performed.

(位置指標算出部66の構成)
位置指標算出部66は、側視画像撮像部45で取得された側視画像に基づいて、対物レンズ25の光軸方向における対物レンズ25と観察対象物100との間の距離、または対物レンズ25と載置台31の上面との間の距離に関係する指標を算出する部分である。指標は、表示部2に表示可能となっており、側視画像と重畳表示することができる。重畳表示とは、側視画像撮像部45で撮像された画像に指標を重ねて表示することである。指標は、ヘッド部22が揺動(傾斜)すると、その揺動角度に対応して傾斜する。
(Configuration of Position Index Calculation Unit 66)
The position index calculating unit 66 calculates the distance between the objective lens 25 and the observation target 100 in the optical axis direction of the objective lens 25 or the objective lens 25 based on the side-view image acquired by the side-view image capturing unit 45. This is a part for calculating an index relating to a distance between the mounting table 31 and the upper surface of the mounting table 31. The index can be displayed on the display unit 2 and can be superimposed on the side-view image. The superimposed display is to display an index superimposed on an image captured by the side-view image capturing unit 45. When the head unit 22 swings (tilts), the index tilts in accordance with the swing angle.

指標は、対物レンズ25の作動距離に関する指標または焦点位置に関する指標とすることができる。対物レンズ25の作動距離に関する指標は、図40や図41に示すガイド表示76として表示部2に表示させることができる。ガイド表示76における下の頂点が焦点位置を示しているので、ガイド表示76は、焦点位置に関する指標ということもできる。   The index may be an index relating to the working distance of the objective lens 25 or an index relating to the focal position. An index relating to the working distance of the objective lens 25 can be displayed on the display unit 2 as a guide display 76 shown in FIGS. Since the lower vertex in the guide display 76 indicates the focus position, the guide display 76 can be regarded as an index relating to the focus position.

指標は、対物レンズ25の光軸方向における該対物レンズ25の移動限界位置に関する指標とすることができる。図31に示すように、対物レンズ25の下端部を観察対象物100の上面よりも下に下げることはできないので、対物レンズ25の移動限界位置は、観察対象物100の上面となる。この観察対象物100の上面をエッジ抽出処理によってエッジ表示線90として側視画像に表示することができる。エッジ表示線90は、対物レンズ25の下方への移動限界位置を示す指標となり、このときの指標は、対物レンズ25の移動限界位置に存在する観察対象物100を示すものである。尚、対物レンズ25の上方への移動限界位置を示す指標を表示するようにしてもよい。対物レンズ25の上方への移動限界位置は、対物レンズ25の長さや対物レンズZ方向駆動部80の構造等によって定まる。   The index can be an index relating to the movement limit position of the objective lens 25 in the optical axis direction of the objective lens 25. As shown in FIG. 31, since the lower end of the objective lens 25 cannot be lowered below the upper surface of the observation target 100, the movement limit position of the objective lens 25 is the upper surface of the observation target 100. The upper surface of the observation target 100 can be displayed on the side-view image as an edge display line 90 by the edge extraction processing. The edge display line 90 is an index indicating the downward movement limit position of the objective lens 25, and the index at this time indicates the observation target 100 existing at the movement limit position of the objective lens 25. Note that an index indicating the upper limit of the movement of the objective lens 25 may be displayed. The upward movement limit position of the objective lens 25 is determined by the length of the objective lens 25, the structure of the objective lens Z-direction drive unit 80, and the like.

制御部60は、受付部により、移動限界を超えた部分の位置の指定を受け付けた場合に、対物レンズ25を移動限界位置までしか移動しないように対物レンズZ方向駆動部80を制御する。図31に示すように、移動限界はエッジ表示線90として表示されているが、使用者がエッジ表示線90よりも載置台31の上面に近い部分の位置の指定を行うことが考えられ、この位置指定にしたがうと、対物レンズ25が観察対象物100に衝突することになる。これを回避するために、図31に示すような位置指定が行われた場合には位置指定を無視するか、位置指定が行われても、それが対物レンズZ方向駆動部80の制御に反映されないようにすることで、対物レンズ25と観察対象物100との衝突を回避するようにしている。また、同様な理由から、受付部は、移動限界を超えた部分の位置の指定を受け付けないように構成することもできる。移動限界を超えた部分の位置の指定が行われた場合には、表示部2に注意表示を行うようにしてもよい。   The control unit 60 controls the objective lens Z-direction drive unit 80 to move the objective lens 25 only to the movement limit position when the reception unit receives the designation of the position of the portion exceeding the movement limit. As shown in FIG. 31, the movement limit is displayed as an edge display line 90. However, it is conceivable that the user specifies a position of a portion closer to the upper surface of the mounting table 31 than the edge display line 90. When the position is specified, the objective lens 25 collides with the observation target 100. In order to avoid this, when the position designation as shown in FIG. 31 is performed, the position designation is ignored, or even if the position designation is performed, it is reflected in the control of the objective lens Z-direction drive unit 80. By preventing the collision, the collision between the objective lens 25 and the observation target object 100 is avoided. For the same reason, the receiving unit may be configured not to receive the designation of the position of the portion exceeding the movement limit. When the position of the portion exceeding the movement limit is specified, a warning display may be displayed on the display unit 2.

指標は、対物レンズ25と観察対象物100との間の距離及び対物レンズ25と載置台31との間の距離の少なくとも一方とすることができる。対物レンズ25の下端部の位置は、エッジ抽出等の画像処理や記憶部89に記憶されている寸法情報に基づいて得ることができ、また、観察対象物100の上面の位置は、エッジ抽出等の画像処理に基づいて得ることができる。対物レンズ25の下端部の位置と、観察対象物100の上面の位置とにより、図42に示すように、対物レンズ25の下端部と、観察対象物100の上面との距離を算出することができる。同様に、対物レンズ25の下端部と、載置台31の上面との距離も算出することができる。   The index can be at least one of the distance between the objective lens 25 and the observation target 100 and the distance between the objective lens 25 and the mounting table 31. The position of the lower end of the objective lens 25 can be obtained based on image processing such as edge extraction or the like and the dimensional information stored in the storage unit 89. The position of the upper surface of the observation target 100 can be obtained by edge extraction or the like. Can be obtained based on the above image processing. Based on the position of the lower end of the objective lens 25 and the position of the upper surface of the observation target 100, as shown in FIG. 42, the distance between the lower end of the objective lens 25 and the upper surface of the observation target 100 can be calculated. it can. Similarly, the distance between the lower end of the objective lens 25 and the upper surface of the mounting table 31 can be calculated.

指標は、対物レンズ25の外形線を含むこともできる。対物レンズ25の外形線は、例えば、エッジ抽出等の画像処理や記憶部89に記憶されている形状情報や寸法情報に基づいて得ることができる。図47に示すように、レボルバ26を回転させた後の対物レンズ25Aの外形線を破線にて側視画像に表示することができる。これにより、対物レンズ25を対物レンズ25Aに切り替えた後に、切替後の対物レンズ25Aが観察対象物100と衝突するか否か、事前に確認することができる。つまり、位置指標算出部66は、観察対象物100を観察している対物レンズ25が別の対物レンズ25Aに切り替えられる場合には、当該別の対物レンズ25Aの外形線を表示部2に表示させることにより、衝突を回避することができるように構成されている。   The index may include the outline of the objective lens 25. The outline of the objective lens 25 can be obtained based on, for example, image processing such as edge extraction and the shape information and dimensional information stored in the storage unit 89. As shown in FIG. 47, the outline of the objective lens 25A after rotating the revolver 26 can be displayed in a side-view image by a broken line. Thus, after switching the objective lens 25 to the objective lens 25A, it is possible to confirm in advance whether the switched objective lens 25A collides with the observation target 100. That is, when the objective lens 25 observing the observation target 100 is switched to another objective lens 25A, the position index calculation unit 66 causes the display unit 2 to display the outline of the other objective lens 25A. Thereby, it is configured that a collision can be avoided.

また、図48はヘッド部22が揺動した状態を示しており、ヘッド部22が揺動すると、その揺動角度に対応するように、切替後の対物レンズ25Aの表示が傾斜するので、使用者は切替後の対物レンズ25Aの確認が容易に行えるようになる。   FIG. 48 shows a state in which the head unit 22 swings. When the head unit 22 swings, the display of the switched objective lens 25A is tilted to correspond to the swing angle. The user can easily check the objective lens 25A after the switching.

尚、観察対象物100を観察している対物レンズ25が別の対物レンズ25Aに切り替えられる場合には、当該別の対物レンズ25Aが移動する軌跡を表示部2に表示させることもできる。対物レンズ25が切り替えられるときには、レボルバ26の回転中心線周りに対物レンズ25が移動することになるので、記憶部89に記憶されている形状情報や寸法情報に基づいて対物レンズ25の移動軌跡を算出して側視画像に表示することができる。   When the objective lens 25 observing the observation object 100 is switched to another objective lens 25A, the locus of the movement of the other objective lens 25A can be displayed on the display unit 2. When the objective lens 25 is switched, the objective lens 25 moves around the rotation center line of the revolver 26. Therefore, the movement locus of the objective lens 25 is determined based on the shape information and the dimensional information stored in the storage unit 89. It can be calculated and displayed on the side-view image.

指標は、観察対象物100の上面を示す線及び載置台31の上面を示す線の少なくとも一方を含むこともできる。観察対象物100の上面を示す線は、例えば図21に示す観察対象物エッジ表示線71aや、図31に示すエッジ表示線90である。載置台31の上面を示す線は、図31に示す載置台表示線91である。   The index may include at least one of a line indicating the upper surface of the observation target 100 and a line indicating the upper surface of the mounting table 31. The lines indicating the upper surface of the observation target 100 are, for example, the observation target edge display line 71a shown in FIG. 21 and the edge display line 90 shown in FIG. A line indicating the upper surface of the mounting table 31 is a mounting table display line 91 illustrated in FIG.

また、位置指標算出部66は、対物レンズ25と観察対象物100との間の距離及び対物レンズ25と載置台31との間の距離の少なくとも一方を取得して当該距離が所定距離以下であるか否かを判定し、所定距離以下であると判定した場合には、表示部2に警告表示させることもできるように構成されている。図46に示すように、対物レンズ25と観察対象物100との間の距離が対物レンズ25の作動距離よりも短い場合には、対物レンズ25をそれ以上、下げても合焦することはなく、対物レンズ25が観察対象物100に衝突することが考えられるので、「衝突に注意して下さい」という警告表示(警告メッセージ表示)や注意表示(注意メッセージ表示)を行う。警告表示や注意表示は、文字によるものだけでなく、マークや色による表示であってもよいし、音声によるものであってもよい。また、対物レンズ25と観察対象物100とが所定以上接近すると、側視画面の色を変えたり、接近したことを示す注意表示を行うようにしてもよい。側視画面の色は、対物レンズ25と観察対象物100との距離に応じて変化させてもよい。   Further, the position index calculation unit 66 obtains at least one of the distance between the objective lens 25 and the observation target 100 and the distance between the objective lens 25 and the mounting table 31, and the distance is equal to or less than a predetermined distance. It is configured to determine whether or not the distance is equal to or less than the predetermined distance, and to display a warning on the display unit 2 when it is determined that the distance is equal to or shorter than the predetermined distance. As shown in FIG. 46, when the distance between the objective lens 25 and the observation target 100 is shorter than the working distance of the objective lens 25, even if the objective lens 25 is further lowered, focusing does not occur. Since it is conceivable that the objective lens 25 collides with the observation target object 100, a warning display (warning message display) and a warning display (caution message display) indicating "Be careful of collision" are performed. The warning display and the caution display may be not only characters, but also marks or colors, or voice. Further, when the objective lens 25 and the observation target 100 approach each other by a predetermined amount or more, the color of the side view screen may be changed, or a warning display indicating that the approach has been made may be performed. The color of the side view screen may be changed according to the distance between the objective lens 25 and the observation target 100.

また、位置指標算出部66は、合成処理部67が拡大観察画像撮像部50によって複数の合成前画像を取得させる際に、対物レンズ25の下方への移動限界位置に関する指標を算出するように構成されている。合成処理部67による深度合成の範囲は、対物レンズ25が観察対象物100に衝突しないように設定する必要があり、この設定の際に、対物レンズ25の下方への移動限界位置に関する指標を利用することで、対物レンズ25と観察対象物100との衝突を回避することができる。   Further, the position index calculating unit 66 is configured to calculate an index related to a downward movement limit position of the objective lens 25 when the combining processing unit 67 causes the magnified observation image imaging unit 50 to acquire a plurality of images before combining. Have been. It is necessary to set the range of the depth synthesis by the synthesis processing unit 67 so that the objective lens 25 does not collide with the observation target 100. In this setting, an index relating to the downward movement limit position of the objective lens 25 is used. By doing so, collision between the objective lens 25 and the observation target object 100 can be avoided.

(表示制御部64)
図17に示す表示制御部64は上述したように表示部2を制御する他、対物レンズ25と観察対象物100との間の距離に応じて側視画像の表示倍率を変更して表示部2に表示させるように構成されている。具体的には、対物レンズ25と観察対象物100との間の距離が近づけば近づくほど、側視画像の表示倍率を大きく、即ち拡大して表示する。例えば、対物レンズ25が高倍率のものである場合には図43に示すように作動距離が数mm以下になり、対物レンズ25の下端部と観察対象物100との距離が側視画像上で判りづらくなることがある。このような場合に側視画像の表示倍率を大きくすることで、図44に示すように、表示部2には対物レンズ25の下端部と観察対象物100とが拡大表示されることになり、対物レンズ25の下端部と観察対象物100との距離を把握し易くなる。側視画像の表示倍率は、段階的に大きくしてもよいし、ほぼ無段階で大きくしてもよい。側視画像の表示倍率の変更は、対物レンズ25と観察対象物100との間の距離の変化に連動して行われるようにしてもよいし、使用者が手動で行うようにしてもよい。
(Display control unit 64)
The display control unit 64 shown in FIG. 17 controls the display unit 2 as described above, and also changes the display magnification of the side-view image in accordance with the distance between the objective lens 25 and the observation target 100 and displays the display unit 2. Is configured to be displayed. Specifically, the closer the distance between the objective lens 25 and the observation target object 100 is, the larger the display magnification of the side-view image, that is, the enlarged image is displayed. For example, when the objective lens 25 has a high magnification, the working distance is several mm or less as shown in FIG. 43, and the distance between the lower end of the objective lens 25 and the observation target 100 is different from the side view image. It may be difficult to understand. In such a case, by increasing the display magnification of the side-view image, the lower end portion of the objective lens 25 and the observation object 100 are enlarged and displayed on the display unit 2 as shown in FIG. The distance between the lower end of the objective lens 25 and the observation object 100 can be easily grasped. The display magnification of the side view image may be increased stepwise, or may be increased almost steplessly. The change of the display magnification of the side view image may be performed in conjunction with a change in the distance between the objective lens 25 and the observation target object 100, or may be manually performed by a user.

また、本例では、ヘッド部22を揺動させることができるので、ヘッド部22が揺動した状態で側視画像撮像部45が観察対象物100や対物レンズ25を撮像することがある。表示制御部64はヘッド部22が揺動した状態で側視画像撮像部45が撮像した側視画像を、拡大観察画像撮像部50で撮像した画像と同時に表示部2に表示させることができる。   Further, in this example, since the head unit 22 can be swung, the side-view image pickup unit 45 may pick up an image of the observation target 100 or the objective lens 25 with the head unit 22 swung. The display control unit 64 can display the side-view image captured by the side-view image capturing unit 45 with the head unit 22 swinging on the display unit 2 simultaneously with the image captured by the magnified observation image capturing unit 50.

(水平化部68の構成)
図17に示す水平化部68は、ヘッド部22が揺動した状態で、側視画像中の載置台31が略水平となるように画像処理を行う部分である。すなわち、側視画像撮像部45が側視画像を取得する際、例えば図10及び図11に示す実施形態4のように、ヘッド部22の揺動に伴って側視画像撮像部45が軸U回りに変位すると、取得された側視画像においては、載置台31がヘッド部22の揺動角度に対応して傾斜することになる。この場合、側視画像は、水平化部68で載置台31が略水平となるように回動させる画像処理が行われた後、表示部2に表示されるので、観察対象物100を複数の異なる角度から観察する場合に、側視画像を違和感の少ない画像とすることができる。
(Configuration of the leveling unit 68)
The leveling unit 68 illustrated in FIG. 17 is a unit that performs image processing such that the mounting table 31 in the side view image is substantially horizontal when the head unit 22 swings. That is, when the side-view image capturing unit 45 acquires the side-view image, the side-view image capturing unit 45 is moved along the axis U with the swing of the head unit 22 as in Embodiment 4 illustrated in FIGS. 10 and 11, for example. When displaced around, the mounting table 31 inclines in accordance with the swing angle of the head unit 22 in the acquired side-view image. In this case, the side-view image is displayed on the display unit 2 after image processing for rotating the mounting table 31 so as to be substantially horizontal in the leveling unit 68, and is thus displayed on the display unit 2. When observing from different angles, the side-view image can be an image with less discomfort.

また、水平化部68は、載置台31が略水平となるように側視画像を回動させる画像処理を行うとともに、載置台31を含む水平方向に長い略矩形状画像となるようにトリミング処理を行うように構成することもできる。水平方向に長い略矩形状画像とは、図16に示すような画像であり、一般的な表示部2の表示領域の形状と略相似形の画像である。   The leveling unit 68 performs image processing for rotating the side-view image so that the mounting table 31 is substantially horizontal, and performs trimming processing so as to form a substantially rectangular image that is long in the horizontal direction including the mounting table 31. It can also be configured to perform The substantially rectangular image that is long in the horizontal direction is an image as shown in FIG. 16, and is an image substantially similar in shape to the display area of the general display unit 2.

水平化部68は、上述したように画像処理を行う部分であってもよいし、実施形態1〜3、5、6のように側視画像撮像部45が変位しないように取り付けられた構造そのものであってもよい。実施形態1〜3、5、6では、側視画像撮像部45が変位しないので、対物レンズ25が揺動したとしても、揺動前の側視画像撮像部45の水平方向が水平状態で維持されることになる。   The leveling unit 68 may be a unit that performs image processing as described above, or the structure itself in which the side-view image capturing unit 45 is attached so as not to be displaced as in the first to third, fifth, and sixth embodiments. It may be. In the first to third, fifth, and sixth embodiments, since the side-view image capturing unit 45 is not displaced, even if the objective lens 25 swings, the horizontal direction of the side-view image capturing unit 45 before swing is maintained in a horizontal state. Will be done.

(全自動観察)
次に、拡大観察装置Aにより全自動観察を行う場合について説明する。図18のフローチャートに示すように、まず、ステップSA1において使用者は観察対象物100を載置台31にセットする。すると、図16に示すようなユーザーインターフェース70により、拡大観察画像撮像部50で取得された拡大観察用画像が拡大観察画像表示領域70aに表示され、側視画像撮像部45で取得された側視画像が側視画像表示領域70bに表示される。ステップSA2では、使用者が拡大観察画像表示領域70aに表示された拡大観察用画像を見る。ステップSA3では、拡大観察画像表示領域70aに表示された拡大観察用画像がピントの合った画像であるか否かを判定し、ピントの合った画像である場合にはステップSA5に進んで観察を行う。ピントの合った画像でない場合にはステップSA4に進み、観察開始操作を行う。観察開始操作は、コントローラ部3、マウス4及びキーボード6等によって行うことができ、例えば図16に示すユーザーインターフェース70に表示された観察開始ボタン等をクリックする操作であってもよい。
(Fully automatic observation)
Next, a case in which fully automatic observation is performed by the magnifying observation apparatus A will be described. As shown in the flowchart of FIG. 18, first, the user sets the observation target 100 on the mounting table 31 in step SA1. Then, the enlarged observation image acquired by the enlarged observation image capturing unit 50 is displayed in the enlarged observation image display area 70a by the user interface 70 as shown in FIG. The image is displayed in the side view image display area 70b. In step SA2, the user looks at the enlarged observation image displayed in the enlarged observation image display area 70a. In step SA3, it is determined whether or not the magnified observation image displayed in the magnified observation image display area 70a is an in-focus image. If it is an in-focus image, the flow advances to step SA5 to perform observation. Do. If the image is not in focus, the flow advances to step SA4 to perform an observation start operation. The observation start operation can be performed by the controller unit 3, the mouse 4, the keyboard 6, and the like, and may be, for example, an operation of clicking an observation start button or the like displayed on the user interface 70 shown in FIG.

観察開始操作が行われると、図19のフローチャートに進む。フローチャートの処理に入る前に、前処理として、実空間での座標と、側視画像撮像部45のイメージセンサの画素での座標と、表示部2に表示されている側視画像中の座標とを互いに関連付けておく。前処理は、ピント合わせの前に行ってもよいし、拡大観察装置Aの出荷前、出荷後、いつ行ってもよい。   When the observation start operation is performed, the process proceeds to the flowchart in FIG. Before entering the processing of the flowchart, as pre-processing, coordinates in the real space, coordinates at pixels of the image sensor of the side-view image capturing unit 45, and coordinates in the side-view image displayed on the display unit 2 Are associated with each other. The pre-processing may be performed before focusing, or may be performed before or after shipment of the magnifying observation apparatus A at any time.

図19のフローチャートのステップSB1に進み、上下Z位置、レンズ情報を取得する。上下Z位置とは、対物レンズ25の位置及び載置台31の位置である。レンズ情報は、記憶部89に記憶されている対物レンズ25の種類、形状、各部の寸法等に関する情報である。   Proceeding to step SB1 in the flowchart of FIG. 19, the vertical Z position and lens information are acquired. The vertical Z position refers to the position of the objective lens 25 and the position of the mounting table 31. The lens information is information on the type, shape, dimensions, etc. of the objective lens 25 stored in the storage unit 89.

その後、ステップSB2に進み、キャリブレーションデータを取得して較正処理を行う。ステップSB3では、側視画像撮像部45によって撮像した側視画像を取得する。図20に示すような画像である。ステップSB4では、エッジ抽出処理を行う。これにより、図21に示すように、観察対象物エッジ表示線71aと、対物レンズエッジ表示線71bとを表示することができる。   After that, the process proceeds to Step SB2 to acquire calibration data and perform a calibration process. In step SB3, a side-view image captured by the side-view image capturing unit 45 is acquired. It is an image as shown in FIG. At Step SB4, an edge extraction process is performed. Thereby, as shown in FIG. 21, the observation object edge display line 71a and the objective lens edge display line 71b can be displayed.

ステップSB5に進み、対物レンズ25の現在位置を把握する。これはリニアスケールによって取得することもできるし、対物レンズエッジ表示線71bの位置によって取得することもできる。ステップSB5では、観察対象物100の上面高さ(Z座標)を把握する。これは観察対象物エッジ表示線71aの位置によって取得することができる。さらに、ステップSB5では、対物レンズ25の現在の合焦位置を把握する。これは対物レンズ25の作動距離によって取得することができる。   Proceeding to step SB5, the current position of the objective lens 25 is grasped. This can be obtained by a linear scale or by the position of the objective lens edge display line 71b. In step SB5, the upper surface height (Z coordinate) of the observation target object 100 is grasped. This can be obtained from the position of the observation object edge display line 71a. Further, in step SB5, the current focusing position of the objective lens 25 is grasped. This can be obtained by the working distance of the objective lens 25.

ステップSB6に進み、合焦条件演算処理を行う。このステップでは、観察対象物100の上面に合焦させるためには、対物レンズ25をどのように動かせばよいのかを演算する。対物レンズ25から観察対象物100の上面までの距離と、対物レンズ25の作動距離とを把握しているので、観察対象物100の上面に合焦させるための対物レンズ25の移動方向及び移動距離を演算することができる。   Proceeding to step SB6, focus condition calculation processing is performed. In this step, how to move the objective lens 25 in order to focus on the upper surface of the observation object 100 is calculated. Since the distance from the objective lens 25 to the upper surface of the observation target 100 and the working distance of the objective lens 25 are known, the moving direction and the moving distance of the objective lens 25 for focusing on the upper surface of the observation target 100 are known. Can be calculated.

ステップSB7では、衝突条件演算処理を行う。このステップでは、対物レンズ25をどのように動かすと観察対象物100や載置台31に衝突してしまうのか、衝突条件を演算する。対物レンズ25から観察対象物100の上面までの距離と、対物レンズ25の下にある観察対象物100の上面との位置関係を把握しているので、観察対象物100や載置台31に衝突してしまう条件を演算することができる。   At Step SB7, a collision condition calculation process is performed. In this step, a collision condition is calculated to determine how to move the objective lens 25 to collide with the observation target 100 or the mounting table 31. Since the positional relationship between the distance from the objective lens 25 to the upper surface of the observation target object 100 and the upper surface of the observation target object 100 below the objective lens 25 is known, the collision with the observation target object 100 and the mounting table 31 occurs. Condition can be calculated.

ステップSB8は対物レンズ25を動かす前に行うステップであり、このステップSB8では、ステップSB6で演算したように対物レンズ25を動かした場合に、ステップSB7で演算した衝突条件に合致するか否かを判定する。ステップSB8でYESと判定されて対物レンズ25が観察対象物100や載置台31に衝突するおそれがある場合には、ステップSB10に進み、側視画像に警告メッセージを重畳表示する。警告メッセージは、例えば図46に示す「衝突に注意して下さい」等である。その後、後述する半自動観察または手動観察のフローチャートに進む。   Step SB8 is a step performed before moving the objective lens 25. In this step SB8, when the objective lens 25 is moved as calculated in step SB6, it is determined whether or not the collision condition calculated in step SB7 is met. judge. When it is determined as YES in step SB8 and there is a possibility that the objective lens 25 collides with the observation target 100 or the mounting table 31, the process proceeds to step SB10, and a warning message is superimposed and displayed on the side-view image. The warning message is, for example, "Be careful of collision" shown in FIG. Thereafter, the process proceeds to a later-described flowchart of semi-automatic observation or manual observation.

一方、ステップSB8でNOと判定されて対物レンズ25が観察対象物100や載置台31に衝突するおそれが無い場合には、ステップSB9に進み、対物レンズ25を合焦位置に移動させる。このとき、オートフォーカス部63によりフォーカス位置を探索し、フォーカス値を表示部2に表示するようにしてもよい。   On the other hand, if NO is determined in step SB8 and there is no possibility that the objective lens 25 will collide with the observation target 100 or the mounting table 31, the process proceeds to step SB9, and the objective lens 25 is moved to the focus position. At this time, the focus position may be searched by the auto focus unit 63 and the focus value may be displayed on the display unit 2.

上述した全自動観察時のオートフォーカス機能(自動焦点合わせ機能)は、焦点がずれる可能性のある動作後に行うことができる。焦点がずれる可能性のある動作とは、例えば、載置台31をX方向やY方向に移動すること、載置台31を回動すること、ヘッド部22を揺動させること、対物レンズ25の切替等を挙げることができる。また、所定時間毎に撮像するタイマー撮像モードを制御部60に組み込むことができ、この場合は、撮像前にオートフォーカス機能によって焦点を合わせることができる。また、観察対象物100が載置台31に載置されたことを側視画像に基づいて認識し、観察対象物100が載置台31に載置された後にオートフォーカス機能によって自動で焦点を合わせることができる。   The autofocus function (autofocus function) at the time of the fully automatic observation described above can be performed after an operation that may cause a defocus. The operation that may cause defocusing includes, for example, moving the mounting table 31 in the X direction or the Y direction, rotating the mounting table 31, swinging the head unit 22, switching the objective lens 25. And the like. In addition, a timer imaging mode for imaging at predetermined time intervals can be incorporated in the control unit 60. In this case, focusing can be performed by an autofocus function before imaging. In addition, it is recognized that the observation target 100 is placed on the mounting table 31 based on the side view image, and after the observation target 100 is mounted on the mounting table 31, the focus is automatically adjusted by an autofocus function. Can be.

(半自動観察)
次に、拡大観察装置Aにより半自動観察を行う場合について説明する。図28のフローチャートのステップSC1〜SC4は、図18のフローチャートのステップSA1〜SA4と同じである。また、図28のフローチャートのステップSC9は、図18のフローチャートのステップSA5と同じである。
(Semi-automatic observation)
Next, a case where semi-automatic observation is performed by the magnifying observation apparatus A will be described. Steps SC1 to SC4 in the flowchart in FIG. 28 are the same as steps SA1 to SA4 in the flowchart in FIG. Step SC9 in the flowchart in FIG. 28 is the same as step SA5 in the flowchart in FIG.

ステップSC3でピントの合った画像でないと判定された場合にはステップSC4に進み、使用者は側視画像を見る。その後、使用者はステップSC5に進み、合焦位置を指定する。例えば、図30に示すような第1部分101と第2部分102とからなる観察対象物100の場合、矢印B方向からの側視画像では、図31に示すように表示されることになる。全自動観察でエッジ抽出を行うと、最上面のエッジ表示線90の位置に合焦しようとするので、図30の面101aを観察したい場合に、拡大観察用画像における面101aにピントが合わない。半自動観察では、図31に示すように、位置指定用ポインタ77によって合焦位置を任意に指定することができる。   If it is determined in step SC3 that the image is not in focus, the process proceeds to step SC4, and the user looks at the side-view image. Thereafter, the user proceeds to step SC5, and designates a focus position. For example, in the case of the observation target object 100 including the first portion 101 and the second portion 102 as shown in FIG. 30, a side-view image viewed from the direction of arrow B is displayed as shown in FIG. 31. When the edge extraction is performed in the fully automatic observation, an attempt is made to focus on the position of the edge display line 90 on the uppermost surface. Therefore, when the surface 101a in FIG. 30 is to be observed, the surface 101a in the enlarged observation image is not focused. . In the semi-automatic observation, as shown in FIG. 31, the focus position can be arbitrarily designated by the position designation pointer 77.

すなわち、図29のフローチャートのステップSD1〜SD5は、図19のフローチャートのステップSB1〜SB5と同じであり、ステップSD1〜SD5を経た後、ステップSD6に進むと、位置指定を補助するための補助表示を側視画像に重畳表示する。補助表示は、図31における位置指定用ポインタ77や位置指定補助線77a、図32における薄墨表示等である。   That is, steps SD1 to SD5 in the flowchart in FIG. 29 are the same as steps SB1 to SB5 in the flowchart in FIG. 19. After going through steps SD1 to SD5 and proceeding to step SD6, an auxiliary display for assisting position designation is provided. Is superimposed on the side-view image. The auxiliary display includes the position specifying pointer 77 and the position specifying auxiliary line 77a in FIG. 31, the light black display in FIG. 32, and the like.

その後、ステップSD7に進み、使用者が指定した合焦位置を受け付ける入力受付処理を行う。使用者が指定した合焦位置を受け付けた後、ステップSD8に進み、対物レンズ25を使用者が指定した合焦位置に移動した場合の座標を演算する。ステップSD9〜SD11は、図19のフローチャートのステップSB6〜SB8と同じ処理及び判定である。また、ステップSD13は、図19のフローチャートのステップSB10と同じ処理であり、ステップSD12は、図19のフローチャートのステップSB9と同じ処理である。   Thereafter, the flow advances to step SD7 to perform an input receiving process for receiving a focus position designated by the user. After accepting the in-focus position specified by the user, the process proceeds to step SD8 to calculate coordinates when the objective lens 25 is moved to the in-focus position specified by the user. Steps SD9 to SD11 are the same processing and determination as steps SB6 to SB8 in the flowchart of FIG. Step SD13 is the same process as step SB10 in the flowchart in FIG. 19, and step SD12 is the same process as step SB9 in the flowchart in FIG.

使用者による合焦位置の指定について図35A、図35B及び図35Cに基づいて具体的に説明する。図35Aには、位置指定ポインタ77及び位置指定補助線77aが表示されるとともに、対物レンズ25の光軸を示す直線Cも表示されている。図35Bに示すように、使用者が位置指定ポインタ77を下げていくと、位置指定補助線77aも連動して下がる。その後、使用者が合焦位置として指定したい高さに位置指定ポインタ77及び位置指定補助線77aが達すると、位置指定操作(マウス4のボタン操作等)を行う。これにより、使用者が指定した合焦位置の入力が完了する。   The specification of the focus position by the user will be specifically described with reference to FIGS. 35A, 35B, and 35C. In FIG. 35A, a position designation pointer 77 and a position designation auxiliary line 77a are displayed, and a straight line C indicating the optical axis of the objective lens 25 is also displayed. As shown in FIG. 35B, when the user moves down the position designation pointer 77, the position designation auxiliary line 77a also moves down. Thereafter, when the position designation pointer 77 and the position designation assistance line 77a reach the height that the user wants to designate as the focus position, the position designation operation (button operation of the mouse 4, etc.) is performed. Thus, the input of the focus position specified by the user is completed.

その後、図35Cに示すように、対物レンズ25の合焦位置が、使用者が指定した合焦位置となるように対物レンズ25が移動する。   Thereafter, as shown in FIG. 35C, the objective lens 25 moves so that the focus position of the objective lens 25 becomes the focus position specified by the user.

図36は、ヘッド部22が揺動した状態を示しており、ヘッド部22が揺動すると、その揺動角度に対応するように、位置指定補助線77aが傾斜するので、使用者は位置入力が容易に行えるようになる。   FIG. 36 shows a state in which the head unit 22 swings. When the head unit 22 swings, the position designation auxiliary line 77a is inclined so as to correspond to the swing angle. Can be easily performed.

また、図37に示すように、位置指定の下限を示す下限表示線95を側視画像に表示するようにしてもよい。例えばエッジ抽出処理によって観察対象物100の最上面をエッジとして抽出し、このエッジを位置指定の下限として、下限表示線95を生成することができる。下限表示線95は使用者が入力するようにしてもよい。   Further, as shown in FIG. 37, a lower limit display line 95 indicating the lower limit of the position designation may be displayed on the side-view image. For example, the uppermost surface of the observation target object 100 is extracted as an edge by an edge extraction process, and the lower limit display line 95 can be generated using the edge as a lower limit for position designation. The lower limit display line 95 may be input by the user.

尚、図19に示すフローチャートで半自動観察に進む場合には、図29に示すフローチャートのステップSD6の処理を行う。   When the process proceeds to semi-automatic observation in the flowchart shown in FIG. 19, the process of step SD6 in the flowchart shown in FIG. 29 is performed.

一方、図28に示すフローチャートのステップSC5を経ることで、上述したように使用者が指定した位置に合焦させることができるので、ステップSC6に進んで拡大観察用画像を見る。ステップSC7では、拡大観察画像表示領域70aに表示された拡大観察用画像がピントの合った画像であるか否かを判定し、ピントの合った画像である場合にはステップSC9に進んで観察を行う。ピントの合った画像でない場合にはステップSC9に進み、各種の重畳表示(側視画像への重畳表示)と警告表示を行う。重畳表示とは、例えば対物レンズ25の作動距離を示すガイド表示(図40に符号76で示す)等を挙げることができる。   On the other hand, by going through step SC5 of the flowchart shown in FIG. 28, it is possible to focus on the position designated by the user as described above, so the process proceeds to step SC6 to view the image for enlarged observation. In step SC7, it is determined whether or not the magnified observation image displayed in the magnified observation image display area 70a is an in-focus image. If it is an in-focus image, the flow advances to step SC9 to perform observation. Do. If the image is not in focus, the flow advances to step SC9 to perform various superimposed displays (superimposed display on the side-view image) and a warning display. The superimposed display includes, for example, a guide display (indicated by reference numeral 76 in FIG. 40) indicating the working distance of the objective lens 25, and the like.

(手動観察)
次に、拡大観察装置Aにより手動観察を行う場合について説明する。図38のフローチャートのステップSE1〜SE3は、図18のフローチャートのステップSA1〜SA3と同じである。ステップSE4では、使用者が側視画像を見る。この側視画像には、図40に示す位置指標としてのガイド表示76や図42に示す距離等が重畳表示されている。
(Manual observation)
Next, a case where manual observation is performed by the magnifying observation apparatus A will be described. Steps SE1 to SE3 in the flowchart in FIG. 38 are the same as steps SA1 to SA3 in the flowchart in FIG. In step SE4, the user looks at the side-view image. A guide display 76 as a position index shown in FIG. 40 and a distance and the like shown in FIG. 42 are superimposed and displayed on the side-view image.

ステップSE5では、使用者が対物レンズ25を移動させる。そして、ステップSE6に進む。ステップSE6では、拡大観察用画像を見ながら合焦位置の調整を行い、このとき、図41や図43に示すような側視画像を見ながら対物レンズ25を移動させることもできるので、合焦位置の目安を知ることができる。つまり、手動時には、拡大観察用画像と、側視画像との両方を見ながらピント合わせを行うことができる。   In step SE5, the user moves the objective lens 25. Then, the process proceeds to Step SE6. In step SE6, the in-focus position is adjusted while looking at the enlarged observation image. At this time, the objective lens 25 can be moved while looking at the side-view image as shown in FIGS. 41 and 43. You can know the approximate position. That is, at the time of manual operation, it is possible to focus while viewing both the enlarged observation image and the side-view image.

ステップSE7でピント合わせが終了するとステップSE8に進んで拡大観察用画像を見る。ステップSE9では、拡大観察画像表示領域70aに表示された拡大観察用画像がピントの合った画像であるか否かを判定し、ピントの合った画像である場合にはステップSE11に進んで観察を行う。ピントの合った画像でない場合にはステップSE10に進み、各種の重畳表示(側視画像への重畳表示)と警告表示を行う。重畳表示とは、例えば対物レンズ25の作動距離を示すガイド表示(図40に符号76で示す)等を挙げることができる。   When the focusing is completed in step SE7, the flow advances to step SE8 to view the enlarged observation image. In step SE9, it is determined whether or not the magnified observation image displayed in the magnified observation image display area 70a is an in-focus image. If it is an in-focus image, the flow advances to step SE11 to perform observation. Do. If the image is not in focus, the process advances to step SE10 to perform various superimposed displays (superimposed display on the side-view image) and a warning display. The superimposed display includes, for example, a guide display (indicated by reference numeral 76 in FIG. 40) indicating the working distance of the objective lens 25, and the like.

手動観察時の詳細について説明する。図39に示すフローチャートのステップSF1〜SF4は、図19に示すフローチャートのステップSB1〜SB4と同じ処理である。ステップSF5では、対物レンズ25の作動距離等の位置指標を算出する。ステップSF6では、ステップSF5で算出した位置指標と側視画像とを合成して表示用データを作成する。これは表示制御部64が行ってもよいし、制御部60が行ってもよい。   Details at the time of manual observation will be described. Steps SF1 to SF4 in the flowchart shown in FIG. 39 are the same processes as steps SB1 to SB4 in the flowchart shown in FIG. In step SF5, a position index such as a working distance of the objective lens 25 is calculated. In step SF6, the position index calculated in step SF5 and the side-view image are combined to create display data. This may be performed by the display control unit 64 or the control unit 60.

その後、ステップSF7に進み、拡大観察用画像及び側視画像を表示部2に表示させる。ステップSF8では、使用者による位置の指定をガイドするガイド表示を、側視画像に重なるように、表示部2に表示させる。ステップSF9は使用者が行うステップであり、対物レンズ25を移動させる。   Thereafter, the process proceeds to step SF7, where the enlarged observation image and the side-view image are displayed on the display unit 2. In step SF8, a guide display for guiding the user to specify the position is displayed on the display unit 2 so as to overlap the side view image. Step SF9 is a step performed by the user, and moves the objective lens 25.

ステップSF10では、制御部60が、リニアスケールの出力に基づいて対物レンズ25のZ方向の位置情報をリアルタイムで取得する。ステップSF11では、対物レンズ25のZ方向の位置情報の更新に対応するように、位置指標を更新して表示部2に表示させる。例えば対物レンズ25が図40に示す位置から図41に示す位置へ移動する際には、位置指標としても機能するガイド表示76が、図40に示す位置から図41に示す位置へ移動するようにその位置を所定のタイミングで更新していく。同様に、対物レンズ25が図42に示す位置から図43に示す位置へ移動する際には、対物レンズ25と観察対象物100との距離を示す値を所定のタイミングで更新していく。   In step SF10, the control unit 60 acquires the position information of the objective lens 25 in the Z direction in real time based on the output of the linear scale. In step SF11, the position index is updated and displayed on the display unit 2 so as to correspond to the update of the position information of the objective lens 25 in the Z direction. For example, when the objective lens 25 moves from the position shown in FIG. 40 to the position shown in FIG. 41, the guide display 76 which also functions as a position indicator moves from the position shown in FIG. 40 to the position shown in FIG. The position is updated at a predetermined timing. Similarly, when the objective lens 25 moves from the position shown in FIG. 42 to the position shown in FIG. 43, the value indicating the distance between the objective lens 25 and the observation target 100 is updated at a predetermined timing.

ステップSF12では、対物レンズ25と観察対象物100との距離が所定距離以下であるか否かを判定する。所定距離とは、例えば対物レンズ25の作動距離未満とすることができ、それ以上接近してもピントが合わない距離である。つまり、ステップSF12では、対物レンズ25と観察対象物100とが近づきすぎていないかどうかを判定することができる。   In Step SF12, it is determined whether or not the distance between the objective lens 25 and the observation target 100 is equal to or less than a predetermined distance. The predetermined distance can be, for example, less than the working distance of the objective lens 25, and is a distance at which the object cannot be focused even if the working distance is further increased. That is, in step SF12, it is possible to determine whether the objective lens 25 and the observation target object 100 are not too close.

ステップSF12においてNOと判定された場合には、対物レンズ25と観察対象物100とが衝突するおそれがないので、エンドに進む。一方、ステップSF12においてYESと判定された場合には、対物レンズ25と観察対象物100とが衝突するおそれがあるので、ステップSF13に進み、表示を切り替えて警告表示を行う。   If NO is determined in step SF12, there is no possibility that the objective lens 25 and the observation target object 100 collide with each other. On the other hand, if YES is determined in step SF12, there is a possibility that the objective lens 25 and the observation target object 100 may collide with each other. Therefore, the process proceeds to step SF13, and the display is switched to perform a warning display.

(ユーセントリック観察)
対物レンズ25の焦点が合った後、その合焦状態を維持しながら、対物レンズZ軸方向駆動部80によって対物レンズ25を、載置部Z方向駆動部83によって載置台31をそれぞれ移動させてユーセントリック観察が可能な位置に観察対象物100の観察対象部分を配置する。これにより、ヘッド部22を揺動させても、観察対象物100の観察対象部分が拡大観察画像撮像部50の視野から外れなくなり、ユーセントリック観察が可能になる。
(Eucentric observation)
After the objective lens 25 is in focus, the objective lens 25 is moved by the objective lens Z-axis direction driving unit 80 and the mounting table 31 is moved by the mounting unit Z-direction driving unit 83 while maintaining the in-focus state. The observation target portion of the observation target object 100 is arranged at a position where eucentric observation is possible. Accordingly, even if the head unit 22 is swung, the observation target portion of the observation target object 100 does not deviate from the field of view of the magnified observation image imaging unit 50, and eucentric observation becomes possible.

(表示形態の例)
図49A及び図49Bは、図16に示すユーザーインターフェース70に表示する表示例であり、補助ウインドウ70cを示している。補助ウインドウ70cでは、ナビ画像と側視画像とを選択的に表示することができるようになっている。ナビ画像とは、観察対象物100を上方から撮像した画像であり、かつ、対物レンズ25の視野よりも広い範囲の画像である。このナビ画像は、載置部XY方向駆動部82によって載置台31をX方向、Y方向に移動させて、都度、撮像した画像を連結処理することによって取得できる。図49Bに示す補助ウインドウ70cの側視画像は、上述した側視画像撮像部45で取得した画像である。撮像する前には、オートフォーカス機能によって焦点を自動で合わせることができる。
(Example of display format)
FIGS. 49A and 49B are display examples displayed on the user interface 70 shown in FIG. 16, and show an auxiliary window 70c. In the auxiliary window 70c, the navigation image and the side-view image can be selectively displayed. The navigation image is an image obtained by capturing the observation target object 100 from above, and is an image in a range wider than the field of view of the objective lens 25. The navigation image can be obtained by moving the mounting table 31 in the X direction and the Y direction by the mounting section XY direction driving unit 82 and connecting the captured images each time. The side view image of the auxiliary window 70c illustrated in FIG. 49B is an image acquired by the above-described side view image capturing unit 45. Before taking an image, the focus can be automatically adjusted by an autofocus function.

補助ウインドウ70cの上部にあるナビ画像タブ70dを選択することでナビ画像が表示され、側視画像タブ70eを選択することで側視画像が表示される。また、「閉じる」ボタン70fを操作することで補助ウインドウ70cを閉じることができる。尚、補助ウインドウ70cの表示は、ユーザーインターフェース70に表示ボタン(図示せず)を設けておき、このボタンの操作を検出することによって可能である。   The navigation image is displayed by selecting the navigation image tab 70d at the top of the auxiliary window 70c, and the side-view image is displayed by selecting the side-view image tab 70e. By operating the "close" button 70f, the auxiliary window 70c can be closed. The auxiliary window 70c can be displayed by providing a display button (not shown) on the user interface 70 and detecting the operation of this button.

(画像の記憶)
側視画像撮像部45で取得した側視画像と、拡大観察画像撮像部50で取得した拡大観察用画像とは、記憶部89に記憶することができるように構成されている。使用者が画像の保存操作を行うと、同一の観察対象物100を撮像して取得された側視画像と拡大観察用画像とが関連付けられて記憶部89に記憶される。記憶部89には、観察日時や観察対象物100の名称等も画像と関連付けて記憶することができる。
(Image storage)
The side-view image acquired by the side-view image capturing unit 45 and the magnifying observation image acquired by the magnified observation image capturing unit 50 are configured to be stored in the storage unit 89. When the user performs an image storage operation, the side-view image acquired by imaging the same observation target object 100 and the magnified observation image are stored in the storage unit 89 in association with each other. The storage unit 89 can also store the observation date and time, the name of the observation target object 100, and the like in association with the image.

(拡大観察装置Aを使用した観察例)
次に、拡大観察装置Aを使用した具体的な観察例について説明する。図50は、この例で用いる観察対象物100の斜視図であり、具体的には電子部品である。この観察対象物100は、基板103と、抵抗器104と、コネクタ105と、コンデンサ106とを有している。抵抗器104及びコネクタ105は基板103の上面から突出するように設けられている。一方、コンデンサ106は、基板103に形成された凹部103a内に設けられており、側面からは見えないようになっている。
(Example of observation using magnifying observation apparatus A)
Next, a specific observation example using the magnifying observation apparatus A will be described. FIG. 50 is a perspective view of the observation target 100 used in this example, specifically, an electronic component. The observation target 100 has a substrate 103, a resistor 104, a connector 105, and a capacitor 106. The resistor 104 and the connector 105 are provided so as to protrude from the upper surface of the substrate 103. On the other hand, the capacitor 106 is provided in a concave portion 103a formed in the substrate 103, and is not visible from the side.

観察対象物100は、側視画像撮像部45が該観察対象物100の側方に位置するように載置台31にセットされていると仮定する。観察順は、抵抗器104、コンデンサ106の順である。   It is assumed that the observation target 100 is set on the mounting table 31 such that the side-view image capturing unit 45 is located on the side of the observation target 100. The observation order is the order of the resistor 104 and the capacitor 106.

まず、図51Aに示すように、抵抗器104が対物レンズ25の視野に入るように載置台31を載置部XY方向駆動部82によって移動させると、全自動観察の欄で説明したように、対物レンズ25の焦点が抵抗器104の上面に自動的に合うので、抵抗器104の観察が可能になる。符号76は対物レンズ25の作動距離を示すガイド表示である。   First, as shown in FIG. 51A, when the mounting table 31 is moved by the mounting unit XY direction driving unit 82 so that the resistor 104 enters the field of view of the objective lens 25, as described in the column of fully automatic observation, Since the focus of the objective lens 25 is automatically focused on the upper surface of the resistor 104, the observation of the resistor 104 becomes possible. Reference numeral 76 denotes a guide display indicating the working distance of the objective lens 25.

順に抵抗器104を観察していくと、図51Bに示すように、側視画像において抵抗器104の後にコネクタ105が映り込むことになる。この場合、コネクタ105の上面が抵抗器104の上面よりも高いので、全自動観察では、対物レンズ25の焦点がコネクタ105の上面に合うことになり、抵抗器104の観察ができなくなる。この場合、半自動観察の欄で説明したように、焦点位置を抵抗器104の上面として指定するか、基板103の上面をフォーカス探索の下限として指定することで、対物レンズ25の焦点が抵抗器104の上面に合う。これにより、図51Cに示すように、背部にコネクタ105が存在していても抵抗器104の観察が可能になる。   When the resistors 104 are observed in order, as shown in FIG. 51B, the connector 105 appears after the resistors 104 in the side view image. In this case, since the upper surface of the connector 105 is higher than the upper surface of the resistor 104, the focus of the objective lens 25 is focused on the upper surface of the connector 105 in the fully automatic observation, and the observation of the resistor 104 becomes impossible. In this case, as described in the section of semi-automatic observation, by specifying the focal position as the upper surface of the resistor 104 or by specifying the upper surface of the substrate 103 as the lower limit of the focus search, the focus of the objective lens 25 becomes Fits on top of This allows the resistor 104 to be observed even when the connector 105 is present on the back as shown in FIG. 51C.

載置台31を載置部XY方向駆動部82によって更に移動させ、図51Dに示すようにコンデンサ106を観察しようとすると、焦点位置として抵抗器104の上面を指定しており、また、基板103の上面をフォーカス探索の下限として指定しているので、それよりも下にあるコンデンサ106には焦点が合わない。また、凹部103aは側視画像で確認できないので、半自動による位置指定も難しい状況である。   When the mounting table 31 is further moved by the mounting unit XY direction driving unit 82 and the capacitor 106 is to be observed as shown in FIG. 51D, the top surface of the resistor 104 is designated as the focal position, and Since the upper surface is designated as the lower limit of the focus search, the condenser 106 located below the upper surface is not focused. Further, since the concave portion 103a cannot be confirmed in the side-view image, it is difficult to specify the position by semi-automation.

このような場合には手動観察とする。すなわち、例えば対物レンズ25の作動距離を符号76として側視画像に重畳表示することで、合焦位置を予測しながら、対物レンズ25を手動で移動させることができる。これにより、図51Eに示すように、側方から見えない部分であっても観察を容易に行うことができる。   In such a case, manual observation is performed. That is, for example, by superimposing and displaying the working distance of the objective lens 25 on the side-view image with reference numeral 76, the objective lens 25 can be manually moved while predicting the in-focus position. Thereby, as shown in FIG. 51E, it is possible to easily observe even a part that cannot be seen from the side.

(実施形態の作用効果)
以上説明したように、この実施形態に係る拡大観察装置Aによれば、観察対象物100からの反射光又は透過光を、対物レンズ25を介して受光する拡大観察画像撮像部50とは別に、観察対象物100の少なくとも上面を含む画像を取得する側視画像撮像部45を設けて、対物レンズ25と観察対象物100との位置関係情報を取得した上でオートフォーカスを実行することができるので、対物レンズ25と観察対象物100との衝突を回避しながら、オートフォーカスの機能を十分に活かすことができる。
(Operation and effect of the embodiment)
As described above, according to the magnifying observation apparatus A according to this embodiment, apart from the magnified observation image capturing unit 50 that receives the reflected light or the transmitted light from the observation target object 100 via the objective lens 25, Since the side-view image capturing unit 45 for acquiring an image including at least the upper surface of the observation target 100 is provided, and after the positional relationship information between the objective lens 25 and the observation target 100 is acquired, autofocus can be performed. In addition, the autofocus function can be fully utilized while avoiding collision between the objective lens 25 and the observation target object 100.

また、側視画像撮像部45で撮像された側視画像における任意の位置を使用者が指定可能にし、この位置指定に基づいて拡大観察装置Aを制御するようにしたので、使用者の意思が反映された拡大観察画像を簡単に得ることができる。   In addition, the user can specify an arbitrary position in the side-view image captured by the side-view image capturing unit 45, and controls the magnifying observation apparatus A based on the position specification. The reflected enlarged observation image can be easily obtained.

また、側視画像撮像部45で撮像された側視画像に基づいて、対物レンズ25と観察対象物100との間の距離、または対物レンズ25と載置台31との間の距離に関係する指標を算出して表示部2に表示させることができるので、観察時に使用者が自ら行う操作をサポートすることができ、効率よく作業できる。   In addition, based on the side-view image captured by the side-view image capturing unit 45, an index related to the distance between the objective lens 25 and the observation target 100 or the distance between the objective lens 25 and the mounting table 31. Can be calculated and displayed on the display unit 2, so that the operation performed by the user himself during observation can be supported, and work can be performed efficiently.

また、側視画像撮像部45により側視画像を取得する際に背景の影響を低減して載置台31や観察対象物100を把握しやすくすることができる。   In addition, when the side-view image capturing unit 45 acquires a side-view image, the influence of the background can be reduced, and the mounting table 31 and the observation target object 100 can be easily grasped.

また、ユーセントリック機構を備えているので、観察対象物100を複数の異なる角度から観察することができる。さらに、拡大観察用画像とは別に載置台31を含む側視画像を取得して表示部2に表示することができる。   Further, since the eucentric mechanism is provided, the observation target 100 can be observed from a plurality of different angles. Further, a side-view image including the mounting table 31 can be acquired separately from the magnifying observation image and displayed on the display unit 2.

上述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈して
はならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。
The embodiments described above are merely examples in all respects and should not be construed as limiting. Furthermore, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

以上説明したように、本発明に係る拡大観察装置は、例えば、微小物体等の試料や電子部品、被加工物等のワークを拡大して観察する場合に使用することができる。   As described above, the magnifying observation apparatus according to the present invention can be used, for example, when magnifying and observing a workpiece such as a sample such as a minute object, an electronic component, or a workpiece.

1 観察部
2 表示部
3 コントローラ部(受付部)
4 マウス(受付部)
6 キーボード(受付部)
10 ベース部
25 対物レンズ
26 レボルバ
30 載置部
31 載置台
40 揺動軸
45 側視画像撮像部
45b ケーブル
50 拡大観察画像撮像部(第1の撮像手段)
51 同軸落射照明
60 制御部
61 画像処理部
62 エッジ抽出部
63 オートフォーカス部
64 表示制御部
65 背景影響低減部
65a 背景判定部
66 位置指標算出部
67 合成処理部
68 水平化部
80 対物レンズZ軸方向駆動部
83 載置部Z方向駆動部
87 リング照明
89 記憶部
100 観察対象物
A 拡大観察装置
U 軸
1 observation unit 2 display unit 3 controller unit (reception unit)
4 mice (reception desk)
6 keyboard (reception desk)
Reference Signs List 10 Base unit 25 Objective lens 26 Revolver 30 Mounting unit 31 Mounting table 40 Swing axis 45 Side-view image pickup unit 45b Cable 50 Magnified observation image pickup unit (first imaging unit)
51 Coaxial epi-illumination 60 Control unit 61 Image processing unit 62 Edge extraction unit 63 Autofocus unit 64 Display control unit 65 Background influence reduction unit 65a Background determination unit 66 Position index calculation unit 67 Synthesis processing unit 68 Leveling unit 80 Objective lens Z axis Direction drive unit 83 Mounting unit Z direction drive unit 87 Ring illumination 89 Storage unit 100 Observation target A Magnifying observation device U Axis

Claims (15)

観察対象物に照明光を照射し、該照明光の前記観察対象物からの反射光又は透過光の受光量を検出して前記観察対象物の画像を生成し、拡大観察可能に表示する拡大観察装置において、
ベース部と、
前記ベース部に支持され、前記観察対象物を載置するための載置部と、
前記照明光の前記観察対象物からの反射光又は透過光が入射する対物レンズと、
前記載置部または前記対物レンズを互いに接近する方向と離れる方向とに移動させる駆動部と、
前記反射光又は透過光を、前記対物レンズを介して受光して第1の画像を取得する第1の撮像手段と、
前記載置部または前記観察対象物の方を向き、かつ、前記第1の撮像手段の光軸と異なる光軸を有するように設けられ、前記観察対象物の少なくとも上端を含む第2の画像を取得するための第2の撮像手段と、
前記第2の撮像手段で取得された前記第2の画像に基づいて前記観察対象物の上端の位置関係情報を取得する画像処理部と、
前記画像処理部で取得された前記位置関係情報と、前記第1の撮像手段で取得された前記第1の画像とに基づいて前記駆動部を制御し、前記対物レンズの焦点を探索するオートフォーカス部と、
前記第1の撮像手段で取得された前記第1の画像を表示可能な表示部とを備えている拡大観察装置。
Magnifying observation that irradiates the observation object with illumination light, detects the amount of reflected light or transmitted light of the illumination light from the observation object, generates an image of the observation object, and displays the image so that it can be magnified. In the device,
A base part,
A mounting portion supported by the base portion, for mounting the observation target,
An objective lens on which reflected light or transmitted light from the observation object of the illumination light is incident,
A driving unit for moving the mounting unit or the objective lens in a direction approaching and moving away from each other,
A first imaging unit configured to receive the reflected light or the transmitted light via the objective lens and obtain a first image;
The second image, which is provided so as to face the mounting portion or the observation object and has an optical axis different from the optical axis of the first imaging unit, and includes at least an upper end of the observation object. Second imaging means for acquiring;
An image processing unit that acquires positional relationship information of an upper end of the observation target based on the second image acquired by the second imaging unit;
An autofocus that controls the driving unit based on the positional relationship information acquired by the image processing unit and the first image acquired by the first imaging unit and searches for a focus of the objective lens; Department and
A display unit capable of displaying the first image acquired by the first imaging unit.
請求項1に記載の拡大観察装置において、
前記オートフォーカス部は、前記位置関係情報を用いて、前記載置部または前記対物レンズの移動に対して移動を規制する方向に、前記駆動部を制御するように構成されている拡大観察装置。
The magnifying observation device according to claim 1,
The magnifying observation apparatus, wherein the autofocus unit is configured to control the driving unit in a direction that restricts movement of the mounting unit or the objective lens using the positional relationship information.
請求項1または2に記載の拡大観察装置において、
前記第2の画像に含まれている前記観察対象物の上端をエッジとして抽出するエッジ抽出処理を行うエッジ抽出部を備え、
前記画像処理部は、前記エッジ抽出部で抽出されたエッジを使用して前記位置関係情報を取得する拡大観察装置。
The magnifying observation device according to claim 1 or 2,
An edge extraction unit that performs an edge extraction process of extracting an upper end of the observation target included in the second image as an edge,
The magnification observation device, wherein the image processing unit acquires the positional relationship information using an edge extracted by the edge extraction unit.
請求項3に記載の拡大観察装置において、
前記拡大観察装置は、リング照明と同軸落射照明とを備えており、前記エッジ抽出部が前記エッジ抽出処理を行う前記第2の画像を前記第2の撮像手段が取得するときに、前記同軸落射照明で前記観察対象物を照明する拡大観察装置。
The magnifying observation device according to claim 3,
The magnifying observation device includes a ring illumination and a coaxial epi-illumination, and when the second imaging unit acquires the second image on which the edge extraction unit performs the edge extraction processing, the coaxial epi-illumination is used. A magnifying observation device that illuminates the observation target with illumination.
請求項3または4に記載の拡大観察装置において、
前記第2の撮像手段は、前記載置部が第1の位置にあるときに前記第2の画像を取得し、前記駆動部により前記載置部を前記第1の位置から第2の位置に動かした後に前記第2の画像を取得し、
前記エッジ抽出部は、前記載置部が前記第1の位置にあるときの前記第2の画像と、前記第2の位置にあるときの前記第2の画像とに基づいてエッジ抽出処理を行うように構成されている拡大観察装置。
The magnifying observation device according to claim 3 or 4,
The second imaging unit acquires the second image when the placement unit is at the first position, and moves the placement unit from the first position to the second position by the driving unit. Acquiring said second image after moving,
The edge extraction unit performs an edge extraction process based on the second image when the placement unit is at the first position and the second image when the placement unit is at the second position. Observation device configured as described above.
請求項3から5のいずれか1つに記載の拡大観察装置において、
前記第2の撮像手段は、前記対物レンズの下端部を含む第2の画像を取得し、
前記エッジ抽出部は、前記第2の画像に含まれている前記対物レンズの下端部をエッジとして抽出するエッジ抽出処理を行い、前記対物レンズの下端部と前記観察対象物の上面との位置関係情報を取得する拡大観察装置。
The magnification observation device according to any one of claims 3 to 5,
The second imaging unit acquires a second image including a lower end of the objective lens,
The edge extraction unit performs an edge extraction process of extracting a lower end of the objective lens included in the second image as an edge, and performs a positional relationship between a lower end of the objective lens and an upper surface of the observation target. A magnifying observation device that acquires information.
請求項1から6のいずれか1つに記載の拡大観察装置において、
前記拡大観察装置は、使用中の前記対物レンズの形状または寸法に関する情報を記憶する記憶部を備え、
前記記憶部に記憶されている前記対物レンズの形状または寸法に関する情報を用いて前記対物レンズと前記観察対象物との位置関係情報を取得するように構成されている拡大観察装置。
The magnification observation device according to any one of claims 1 to 6,
The magnification observation device includes a storage unit that stores information on a shape or a size of the objective lens in use,
An enlarged observation apparatus configured to acquire information on a positional relationship between the objective lens and the observation target using information on the shape or dimension of the objective lens stored in the storage unit.
請求項1から7のいずれか1つに記載の拡大観察装置において、
前記拡大観察装置は、使用中の前記対物レンズの作動距離に関する情報を記憶する記憶部を備え、
前記オートフォーカス部は、前記記憶部に記憶されている前記対物レンズの作動距離に関する情報を用いて前記対物レンズの焦点を探索するように構成されている拡大観察装置。
The magnification observation device according to any one of claims 1 to 7,
The magnification observation device includes a storage unit that stores information about a working distance of the objective lens in use,
The magnifying observation apparatus, wherein the autofocus unit is configured to search for a focus of the objective lens using information on a working distance of the objective lens stored in the storage unit.
請求項1から8のいずれか1つに記載の拡大観察装置において、
前記オートフォーカス部は、前記対物レンズの焦点を前記観察対象物の最上面に合わせるように構成されている拡大観察装置。
The magnification observation device according to any one of claims 1 to 8,
The magnifying observation apparatus, wherein the autofocus unit is configured to focus a focus of the objective lens on an uppermost surface of the observation target.
請求項1から9のいずれか1つに記載の拡大観察装置において、
前記オートフォーカス部による前記対物レンズの焦点の探索が失敗した場合には、前記駆動部を停止させて探索を終了するように構成されている拡大観察装置。
The magnification observation device according to any one of claims 1 to 9,
A magnifying observation apparatus configured to stop the drive unit and terminate the search when the search of the focus of the objective lens by the autofocus unit fails.
請求項1から10のいずれか1つに記載の拡大観察装置において、
前記オートフォーカス部による前記対物レンズの焦点の探索が失敗した場合には、探索が失敗したことを報知する表示を前記表示部に表示させるように構成されている拡大観察装置。
The magnification observation device according to any one of claims 1 to 10,
A magnifying observation apparatus configured to display, when the search of the focus of the objective lens by the autofocus unit has failed, a display notifying that the search has failed on the display unit.
請求項10または11に記載の拡大観察装置において、
前記表示部は、前記第2の撮像手段で取得された前記第2の画像を表示するように構成され、
前記拡大観察装置は、前記オートフォーカス部による前記対物レンズの焦点の探索が失敗した場合に前記第2の画像上で使用者による前記対物レンズの合焦目標位置の指定を受け付ける受付部を備え、
前記オートフォーカス部は、前記受付部で受け付けた前記合焦目標位置に基づいて前記駆動部を制御する拡大観察装置。
The magnification observation device according to claim 10 or 11,
The display unit is configured to display the second image acquired by the second imaging unit,
The magnifying observation apparatus includes a receiving unit that receives designation of a focus target position of the objective lens by the user on the second image when the search of the focus of the objective lens by the autofocus unit has failed,
The magnification observation device, wherein the autofocus unit controls the driving unit based on the focus target position received by the reception unit.
請求項1から12のいずれか1つに記載の拡大観察装置において、
前記画像処理部は、前記第2の撮像手段で取得された前記第2の画像に基づいて前記対物レンズと前記観察対象物の上端との位置関係情報を取得する拡大観察装置。
The magnification observation device according to any one of claims 1 to 12,
The magnifying observation apparatus, wherein the image processing unit acquires positional relationship information between the objective lens and an upper end of the observation target based on the second image acquired by the second imaging unit.
請求項1から13のいずれか1つに記載の拡大観察装置において、
前記対物レンズの位置は、
前記第2の撮像手段により取得された第2の画像と、
前記第2の画像内における位置を、前記載置部または前記対物レンズを互いに接近する方向と離れる方向における位置に変換することにより得られる拡大観察装置。
The magnifying observation device according to any one of claims 1 to 13,
The position of the objective lens is
A second image obtained by the second imaging means;
An enlarged observation device obtained by converting a position in the second image into a position in a direction in which the mounting portion or the objective lens approaches and moves away from the objective lens.
請求項1から14のいずれか1つに記載の拡大観察装置において、
前記対物レンズの位置は、前記対物レンズが取り付けられた駆動部に設けられたエンコーダに基づき、位置情報が得られる拡大観察装置。
The magnification observation apparatus according to any one of claims 1 to 14,
A magnifying observation apparatus in which the position of the objective lens is obtained based on an encoder provided in a drive unit to which the objective lens is attached.
JP2018161297A 2018-08-30 2018-08-30 Magnifying observation device Active JP7137406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018161297A JP7137406B2 (en) 2018-08-30 2018-08-30 Magnifying observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018161297A JP7137406B2 (en) 2018-08-30 2018-08-30 Magnifying observation device

Publications (2)

Publication Number Publication Date
JP2020034732A true JP2020034732A (en) 2020-03-05
JP7137406B2 JP7137406B2 (en) 2022-09-14

Family

ID=69668005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018161297A Active JP7137406B2 (en) 2018-08-30 2018-08-30 Magnifying observation device

Country Status (1)

Country Link
JP (1) JP7137406B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021137100A (en) * 2020-03-02 2021-09-16 株式会社三共 Game machine
JP2021137101A (en) * 2020-03-02 2021-09-16 株式会社三共 Game machine

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054133A (en) * 2011-09-01 2013-03-21 Olympus Corp Microscope device and focusing method for microscope device
JP2014211626A (en) * 2013-04-19 2014-11-13 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh Digital microscope and method of optimizing work process of digital microscope
US9215425B1 (en) * 2013-02-04 2015-12-15 Bruker Nano Inc. Camera-aided focusing in optical metrology
JP2017032339A (en) * 2015-07-30 2017-02-09 株式会社キーエンス Three-dimensional image inspection device, three-dimensional image inspection method, three-dimensional image inspection program, and computer readable recording medium
JP2018017969A (en) * 2016-07-29 2018-02-01 オリンパス株式会社 Microscope system, information presentation method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054133A (en) * 2011-09-01 2013-03-21 Olympus Corp Microscope device and focusing method for microscope device
US9215425B1 (en) * 2013-02-04 2015-12-15 Bruker Nano Inc. Camera-aided focusing in optical metrology
JP2014211626A (en) * 2013-04-19 2014-11-13 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh Digital microscope and method of optimizing work process of digital microscope
JP2017032339A (en) * 2015-07-30 2017-02-09 株式会社キーエンス Three-dimensional image inspection device, three-dimensional image inspection method, three-dimensional image inspection program, and computer readable recording medium
JP2018017969A (en) * 2016-07-29 2018-02-01 オリンパス株式会社 Microscope system, information presentation method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021137100A (en) * 2020-03-02 2021-09-16 株式会社三共 Game machine
JP2021137101A (en) * 2020-03-02 2021-09-16 株式会社三共 Game machine

Also Published As

Publication number Publication date
JP7137406B2 (en) 2022-09-14

Similar Documents

Publication Publication Date Title
JP7092619B2 (en) Magnifying observation device
JP6374197B2 (en) Digital microscope and method for optimizing digital microscope work process
JP2015525894A (en) Methods for preparing and performing acquisition of sample image stacks from various orientation angles
US9678326B2 (en) Generating perspective views in microscopy
JP2018004496A (en) Image measurement device
JP7137406B2 (en) Magnifying observation device
US10816783B2 (en) Magnifying observation apparatus
JP7092618B2 (en) Magnifying observation device
JP2020086293A (en) Magnifying observation device
JP7123700B2 (en) Magnifying observation device
JP7065731B2 (en) Magnifying observation device
JPH08313217A (en) Noncontact image measuring system
US12013525B2 (en) Magnified observation apparatus
JP2003315015A (en) Measuring microscope
US10539775B2 (en) Magnifying observation apparatus
JP2009294465A (en) Imaging device for microscope and objective micrometer
JP6971770B2 (en) Magnifying observation device
JP7251957B2 (en) Magnifying observation device
JP2022127537A (en) Enlarging observation device, enlarged image observation method, enlarged image observation program, and computer-readable recording medium, and apparatus storing program
JP7032098B2 (en) Magnifying observation device
JP2020086295A (en) Magnifying observation device
JP6928533B2 (en) Magnifying observation device
JP7002178B2 (en) Magnifying observation device
JP2019074670A (en) Magnifying observation device
JP2017120339A (en) Microscope system, control method of microscope system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220902

R150 Certificate of patent or registration of utility model

Ref document number: 7137406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150