JP2022098590A - Ai model generation method and inspection device - Google Patents
Ai model generation method and inspection device Download PDFInfo
- Publication number
- JP2022098590A JP2022098590A JP2020212058A JP2020212058A JP2022098590A JP 2022098590 A JP2022098590 A JP 2022098590A JP 2020212058 A JP2020212058 A JP 2020212058A JP 2020212058 A JP2020212058 A JP 2020212058A JP 2022098590 A JP2022098590 A JP 2022098590A
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- learning
- inspected
- detector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 156
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000010801 machine learning Methods 0.000 claims abstract description 3
- 230000005855 radiation Effects 0.000 claims description 121
- 238000003384 imaging method Methods 0.000 claims description 42
- 230000005540 biological transmission Effects 0.000 claims description 36
- 238000012937 correction Methods 0.000 claims description 19
- 238000013473 artificial intelligence Methods 0.000 abstract description 135
- 230000000007 visual effect Effects 0.000 abstract 1
- 239000000758 substrate Substances 0.000 description 67
- 238000012545 processing Methods 0.000 description 41
- 238000003860 storage Methods 0.000 description 29
- 229910000679 solder Inorganic materials 0.000 description 27
- 230000008569 process Effects 0.000 description 25
- 238000001514 detection method Methods 0.000 description 16
- 239000011800 void material Substances 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 9
- 238000002844 melting Methods 0.000 description 6
- 230000008018 melting Effects 0.000 description 6
- 230000002159 abnormal effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 238000004904 shortening Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000155 melt Substances 0.000 description 2
- 230000002285 radioactive effect Effects 0.000 description 2
- 238000005476 soldering Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- WFKWXMTUELFFGS-UHFFFAOYSA-N tungsten Chemical compound [W] WFKWXMTUELFFGS-UHFFFAOYSA-N 0.000 description 1
- 229910052721 tungsten Inorganic materials 0.000 description 1
- 239000010937 tungsten Substances 0.000 description 1
Images
Landscapes
- Analysing Materials By The Use Of Radiation (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、AIモデルの作成方法、及びこのAIモデルにより画像を補正する検査装置に関する。 The present invention relates to a method for creating an AI model and an inspection device for correcting an image by the AI model.
基板表面や裏面のはんだ形状を計測する検査装置は、被検査体を撮像した画像を用いて検査が行われる(例えば、特許文献1又は2を参照)。例えば、自動光学検査(AOI:Automated Optical Inspection)方式の検査装置では、被検査体に照明光を照射してカメラで撮像される。このとき、製造ラインのスループットを向上させるために、撮像条件を変更する(撮像範囲(視野)を広くしたり、露光時間を短くしたりする)場合がある。また、トモシンセシス方式のX線検査装置では、線源(放射線発生器)と被検査体及び検出器との相対位置を変化させて複数の透過画像を撮像し、これらの透過画像から再構成画像を生成するように構成されている。そのため、複数の透過画像の撮像や透過画像を用いた再構成画像の生成に時間がかかり、製造ラインのスループットが低下し、また、スループットを上げるために被検査体の一部分の検査しか実施できない場合がある。また、被検査体の材質や形状等の構成にもよるが、検査時の放射線の照射量(被曝量)をなるべく少なくしたいという要望もある。
The inspection device for measuring the solder shape on the front surface and the back surface of the substrate is inspected using an image of the object to be inspected (see, for example,
上述したような検査装置において撮像条件を変更すると、撮像された画像のノイズが増加するという課題や、解像度が低下するという課題があった。例えばX線検査装置において照射する放射線を弱くする、或いは、露光時間(放射線の照射時間)を短くする、視野(被検査体上の撮像領域であって、以下「FOV(Field Of View)」と呼ぶ)を広くする、又は再構成画像の生成に用いる透過画像の枚数を減らすことで撮像時間を短縮することにより、検査時の被曝量の減少や検査時間の短縮を実現することができるが、その結果、透過画像や再構成画像から得られる断面画像のノイズが増加し、或いは解像度が低下してしまう。 When the imaging conditions are changed in the inspection device as described above, there is a problem that the noise of the image captured is increased and a problem that the resolution is lowered. For example, the radiation emitted by the X-ray inspection apparatus is weakened, or the exposure time (radiation irradiation time) is shortened, and the field of view (the imaging region on the object to be inspected, hereinafter referred to as "FOV (Field Of View)"". By widening the (called) or reducing the number of transmitted images used to generate the reconstructed image, the imaging time can be shortened, thereby reducing the exposure dose at the time of inspection and shortening the inspection time. As a result, the noise of the cross-sectional image obtained from the transparent image or the reconstructed image increases, or the resolution decreases.
本発明はこのような課題に鑑みてなされたものであり、撮像条件の変更により増加するノイズや解像度の低下を、AI(人工知能)を用いた学習で作成したAIモデルにより補正することで検査の精度を向上させる、AIモデルの作成方法、及びこのAIモデルにより画像を補正する検査装置を提供することを目的とする。 The present invention has been made in view of such a problem, and is inspected by correcting the noise and the decrease in resolution that increase due to the change of the imaging condition by the AI model created by learning using AI (artificial intelligence). It is an object of the present invention to provide a method for creating an AI model and an inspection device for correcting an image by the AI model, which improves the accuracy of the AI model.
前記課題を解決するために、本発明に係るAIモデルの作成方法は、機械学習により作成されたAIモデルを用いて被検査体の画像を補正する検査装置におけるAIモデルの作成方法であって、前記検査装置で撮像された前記被検査体の画質の高い画像を教師用画像とし、前記検査装置で撮像された前記被検査体の画質の低い画像であって、前記教師用画像と同一の視野の画像を学習用画像とし、前記学習用画像を入力とし、前記AIモデルにより補正された画像を出力とし、前記出力と前記教師用画像とを比較して学習することにより、前記AIモデルを作成する。 In order to solve the above-mentioned problems, the method of creating an AI model according to the present invention is a method of creating an AI model in an inspection device that corrects an image of an inspected object by using an AI model created by machine learning. The high-quality image of the inspected object captured by the inspection device is used as a teacher image, and the low-quality image of the inspected object captured by the inspection device is the same field as the teacher's image. The AI model is created by using the image of the above as a learning image, the learning image as an input, the image corrected by the AI model as an output, and learning by comparing the output with the teacher's image. do.
また、本発明に係るAIモデルの作成方法は、前記被検査体の画像が、複数の撮像領域に分割されて取得されるときに、前記複数の撮像領域のうちの少なくとも2つの撮像領域では、当該撮像領域の各々に特化した前記AIモデルを作成することが望ましい。 Further, in the method for creating an AI model according to the present invention, when an image of the subject to be inspected is divided into a plurality of imaging regions and acquired, in at least two imaging regions of the plurality of imaging regions, It is desirable to create the AI model specialized for each of the imaging regions.
また、本発明に係るAIモデルの作成方法は、前記被検査体の画像が、複数の領域に分割されて取得されるときに、前記複数の撮像領域のうちの少なくとも2つの撮像領域では、当該撮像領域に共通の前記AIモデルを作成することが望ましい。 Further, in the method for creating an AI model according to the present invention, when an image of the subject to be inspected is divided into a plurality of regions and acquired, the AI model is said to be in at least two of the plurality of imaging regions. It is desirable to create the AI model common to the imaging region.
また、本発明に係るAIモデルの作成方法は、前記被検査体の画像を複数の部分領域に分割し、前記複数の部分領域のうちの少なくとも2つの部分領域では、当該部分領域の各々に特化した前記AIモデルを作成することが望ましい。 Further, in the method for creating an AI model according to the present invention, the image of the object to be inspected is divided into a plurality of partial regions, and at least two of the plurality of partial regions are characterized by each of the partial regions. It is desirable to create the above-mentioned AI model.
また、本発明に係るAIモデルの作成方法は、前記被検査体の画像のうち、前記被検査体の特定の領域の画像に特化したAIモデルを作成することが望ましい。 Further, in the method for creating an AI model according to the present invention, it is desirable to create an AI model specialized for an image of a specific region of the inspected body among the images of the inspected body.
また、本発明に係るAIモデルの作成方法において、前記画質はノイズ量又は解像度であることが望ましい。 Further, in the method for creating an AI model according to the present invention, it is desirable that the image quality is a noise amount or a resolution.
また、本発明に係る検査装置は、光源と、被検査体を保持する保持部と、前記光源から放射され、前記被検査体で反射した光または前記被検査体を透過した光を検出して前記被検査体の画像を取得する検出器と、制御部と、を有し、前記制御部は、前記光源からの光を前記被検査体に照射し、前記検出器により前記被検査体の画像として前記教師用画像及び前記学習用画像を取得し、前記教師用画像及び前記学習用画像を用いて請求項1~6のいずれか一項に記載のAIモデルの作成方法により前記透過画像を補正するための前記AIモデルを作成する。
Further, the inspection device according to the present invention detects a light source, a holding portion for holding the inspected object, and light emitted from the light source and reflected by the inspected object or transmitted through the inspected object. It has a detector for acquiring an image of the inspected object and a control unit, and the control unit irradiates the inspected object with light from the light source and uses the detector to obtain an image of the inspected object. The teacher image and the learning image are acquired, and the transmission image is corrected by the method for creating an AI model according to any one of
また、本発明に係る検査装置において、前記光源は、放射線を放射する線源であり、前記検出器は、前記被検査体を透過した前記線源からの放射線を検出して前記被検査体の画像を取得し、前記制御部は、前記線源と前記保持部及び前記検出器との相対位置を変化させて、前記線源から放射され前記被検査体を透過した光を前記検出器で取得することにより、前記被検査体の透過画像として前記教師用画像及び前記学習用画像を取得し、前記教師用画像及び前記学習用画像を用いて上述したAIモデルの作成方法により前記透過画像を補正するための前記AIモデルを作成することが望ましい。 Further, in the inspection device according to the present invention, the light source is a radiation source that emits radiation, and the detector detects radiation from the radiation source that has passed through the inspected object and detects the radiation of the inspected object. The control unit acquires an image, changes the relative positions of the radiation source, the holding unit, and the detector, and acquires the light emitted from the radiation source and transmitted through the inspected object by the detector. By doing so, the teacher image and the learning image are acquired as the transmission image of the inspected object, and the transmission image is corrected by the AI model creation method described above using the teacher image and the learning image. It is desirable to create the AI model for this purpose.
また、本発明に係る検査装置において、前記光源は、放射線を放射する線源であり、前記検出器は、前記被検査体を透過した前記線源からの放射線を検出して前記検査体の画像を取得し、前記制御部は、前記線源と前記保持部及び前記検出器との相対位置を変化させて、前記線源から放射され前記被検査体を透過した光を前記検出器で取得することにより、前記被検査体の透過画像を取得し、前記透過画像を再構成して前記被検査体の断面画像である前記教師用画像及び前記学習用画像を生成し、前記教師用画像及び前記学習用画像を用いて請求項1~6のいずれか一項に記載のAIモデルの作成方法により前記断面画像を補正するための前記AIモデルを作成することが望ましい。
Further, in the inspection apparatus according to the present invention, the light source is a radiation source that emits radiation, and the detector detects radiation from the radiation source that has passed through the inspected body and images of the inspection body. The control unit changes the relative positions of the radiation source, the holding unit, and the detector, and acquires the light emitted from the radiation source and transmitted through the inspected body by the detector. Thereby, the transmission image of the inspected object is acquired, the transmission image is reconstructed to generate the teacher image and the learning image which are cross-sectional images of the inspected object, and the teacher image and the said. It is desirable to create the AI model for correcting the cross-sectional image by the method for creating the AI model according to any one of
また、本発明に係る検査装置において、前記制御部は、前記線源と前記保持部及び前記検出器との相対位置を変化させて、前記線源から放射され前記被検査体を透過した光を前記検出器で取得することにより、前記被検査体の透過画像を取得し、取得した透過画像又は当該透過画像から生成される断面画像に対して前記AIモデルで補正を行うことが望ましい。 Further, in the inspection device according to the present invention, the control unit changes the relative positions of the radiation source, the holding unit, and the detector to emit light emitted from the radiation source and transmitted through the inspected object. It is desirable to acquire a transmission image of the inspected object by acquiring it with the detector, and to correct the acquired transmission image or the cross-sectional image generated from the transmission image with the AI model.
また、本発明に係る検査装置において、前記補正は、前記被検査体の特定された領域の前記画像に対して行われることが望ましい。 Further, in the inspection device according to the present invention, it is desirable that the correction is performed on the image of the specified region of the inspected object.
また、本発明に係る検査装置は、ユーザインタフェースを有し、前記制御部は、前記ユーザインタフェースにより、前記学習の条件を受け付けることが望ましい。 Further, it is desirable that the inspection device according to the present invention has a user interface, and the control unit accepts the learning conditions by the user interface.
本発明に係るAIモデルの作成方法及び検査装置によれば、撮像条件を変更する(例えば、X線検査装置において放射線を弱くしたり撮像時間を短縮したりする)場合でも、ノイズが少なく解像度の高い画像(透過画像や断面画像)を得ることができ、検査精度を向上させることができる。 According to the AI model creation method and the inspection apparatus according to the present invention, even when the imaging conditions are changed (for example, the radiation is weakened or the imaging time is shortened in the X-ray inspection apparatus), there is little noise and the resolution is high. High images (transparent images and cross-sectional images) can be obtained, and inspection accuracy can be improved.
以下、本発明の好ましい実施形態について図面を参照して説明する。なお、ここではX線検査装置に基づいて説明するが、後述するように、AOI方式等、その他の方式の検査装置でも同様である。図1に示すように、本実施形態に係る検査装置1は、パーソナルコンピュータ(PC)等の処理装置で構成される制御部10、モニタ12、及び、撮像部32を有して構成されている。また、撮像部32は、更に、線質変更部14、放射線発生器駆動部16、基板保持部駆動部18、検出器駆動部20、放射線発生器22、基板保持部24、及び、検出器26を有している。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. Although the description will be given here based on the X-ray inspection device, the same applies to other types of inspection devices such as the AOI method, as will be described later. As shown in FIG. 1, the
放射線発生器22は、X線等の放射線を発生させる装置(線源)であり、例えば加速させた電子をタングステンやダイアモンド等のターゲットに衝突させることで放射線を発生するものである。本実施形態における放射線は、X線の場合について説明するが、これに限定されるものではない。例えば、放射線は、アルファ線、ベータ線、ガンマ線、紫外線、可視光、赤外線でもよい。また、放射線は、マイクロ波やテラヘルツ波でもよい。この放射線発生器22は、被検査体に光(放射線)を照射する光源(線源)としての機能を有している。
The
基板保持部24は、被検査体である基板を保持する。基板保持部24に保持された基板に放射線発生器22で発生させた放射線を照射し、基板を透過した放射線を検出器26で画像として撮像する。以下、検出器26で撮像された基板の放射線透過画像を「透過画像」と呼ぶ。なお、後述するように、本実施形態においては、基板を保持した基板保持部24と検出器26とを放射線発生器22に対して相対移動させて複数の透過画像を取得して、再構成画像を生成する。
The
検出器26で撮像された透過画像は、制御部10に送られ、例えば、フィルター補正逆投影法(Filtered-Back Projection法(FBP法))等の既知の技術を用いて、接合部分のはんだの立体形状を含む画像に再構成される。そして、再構成された画像や透過画像は、制御部10内のストレージや、図示しない外部のストレージに記憶される。以下、透過画像に基づいて接合部分のはんだの立体形状を含む3次元画像に再構成された画像を「再構成画像」と呼ぶ。また、再構成画像から任意の断面を切り出した画像を「断面画像」と呼ぶ。このような再構成画像及び断面画像はモニタ12に出力される。なお、モニタ12には再構成画像や断面画像のみならず、後述するはんだの接合状態の検査結果等も表示される。また、本実施形態における再構成画像は、上述したように、検出器26で撮像された平面画像から再構成されるため「プラナーCT」とも呼ぶ。
The transmitted image captured by the
線質変更部14は、放射線発生器22で発生される放射線の線質を変更する。放射線の線質は、ターゲットに衝突させる電子を加速するために印加する電圧(以下「管電圧」と呼ぶ)や、電子の数を決定する電流(以下「管電流」と呼ぶ)によって定まる。線質変更部14は、これら管電圧と管電流とを制御する装置である。この線質変更部14は変圧器や整流器等、既知の技術を用いて実現できる。
The radiation
ここで、放射線の線質は、放射線の輝度と硬さ(放射線のスペクトル分布)とで定まる。管電流を大きくすればターゲットに衝突する電子の数が増え、発生する放射線の光子の数も増える。その結果、放射線の輝度が大きくなる。例えば、コンデンサ等の部品の中には他の部品と比較して厚みがあるものもあり、これらの部品の透過画像を撮像するには輝度の大きな放射線を照射する必要がある。このような場合に管電流を調整することで放射線の輝度を調整する。また、管電圧を高くすると、ターゲットに衝突する電子のエネルギーが大きくなり、発生する放射線のエネルギー(スペクトル)が大きくなる。一般に、放射線のエネルギーが大きいほど物質の貫通力が大きくなり、物質に吸収されにくくなる。そのような放射線を用いて撮像した透過画像はコントラストが低くなる。このため、管電圧は透過画像のコントラストを調整するのに利用できる。 Here, the radiation quality is determined by the brightness and hardness (spectral distribution of radiation) of the radiation. Increasing the tube current increases the number of electrons that collide with the target and the number of photons of the generated radiation. As a result, the brightness of the radiation increases. For example, some parts such as capacitors are thicker than other parts, and it is necessary to irradiate them with high-intensity radiation in order to capture a transmitted image of these parts. In such a case, the brightness of the radiation is adjusted by adjusting the tube current. Further, when the tube voltage is increased, the energy of the electrons colliding with the target becomes large, and the energy (spectral) of the generated radiation becomes large. In general, the greater the energy of radiation, the greater the penetrating force of a substance and the less likely it is to be absorbed by the substance. A transmitted image captured using such radiation has a low contrast. Therefore, the tube voltage can be used to adjust the contrast of the transmitted image.
放射線発生器駆動部16は、図示しないモータ等の駆動機構を有しており、放射線発生器22をその焦点を通る軸(この軸の方向を「Z軸方向」とする)に沿って上下に移動させることができる。これにより放射線発生器22と基板保持部24に保持される被検査体(基板)との距離を変えて照射野を変更し、検出器26で撮像される透過画像の拡大率を変更することが可能となる。なお、放射線発生器22のZ軸方向の位置は、発生器位置検出部23により検出され、制御部10に出力される。
The radiation
検出器駆動部20も図示しないモータ等の駆動機構を有しており、検出器回転軌道30に沿って検出器26を回転移動させる。また、基板保持部駆動部18も図示しないモータ等の駆動機構を有しており、基板回転軌道28が設けられた平面上を、基板保持部24を平行移動させる。また、基板保持部24は、検出器26の回転移動と連動して、基板回転軌道28上を回転移動する構成となっている。これにより、基板保持部24が保持する基板と放射線発生器22との相対的な位置関係を変更させながら、投射方向及び投射角度が異なる複数の透過画像を撮像することが可能となる。
The
ここで、基板回転軌道28と検出器回転軌道30との回転半径は固定ではなく、自由に変更できる構成となっている。これにより、基板に配置される部品に照射する放射線の照射角度を任意に変更することが可能となる。なお、基板回転軌道28及び検出器回転軌道30の軌道面は、上述したZ軸方向と直交しており、この軌道面において直交する方向をX軸方向及びY軸方向とすると、基板保持部24のX軸方向及びY軸方向の位置は、基板位置検出部29で検出されて制御部10に出力され、検出器26のX軸方向及びY軸方向の位置は、検出器位置検出部31で検出されて制御部10に出力される。
Here, the radius of gyration between the
制御部10は、上述した検査装置1の全動作を制御する。以下、制御部10の諸機能について図2を用いて説明する。なお、図示されていないが、制御部10には、上述したモニタ12に加えて、キーボードおよびマウスなどの入力装置が接続されており、これらのモニタやキーボード・マウス等は、検査装置1のユーザインタフェースを構成している。
The
制御部10は、記憶部34、撮像処理部35、断面画像生成部36、学習処理部37、基板検査面検出部38、疑似断面画像生成部40、及び検査部42を含む。なお、図示しないが制御部10は線質変更部14、放射線発生器駆動部16、基板保持部駆動部18、及び検出器駆動部20の作動を制御する撮像制御部も含む。また、これらの各機能ブロックは、各種演算処理を実行するCPU、データの格納やプログラム実行のためのワークエリアとして利用されるRAMなどのハードウェア、およびソフトウェアの連携によって実現される。したがって、これらの機能ブロックはハードウェアおよびソフトウェアの組み合わせによって様々な形で実現することができる。
The
記憶部34は、基板の透過画像を撮像するための撮像条件や、被検査体である基板の設計等の情報を記憶する。記憶部34はまた、基板の透過画像や再構成画像(断面画像、疑似断面画像)、及び後述する検査部42の検査結果等を記憶する。また、詳細は後述するが、記憶部34は、学習処理部37により作成または更新されたAIモデルを記憶する。記憶部34はさらに、放射線発生器駆動部16が放射線発生器22を駆動する速度、基板保持部駆動部18が基板保持部24を駆動する速度および検出器駆動部20が検出器26を駆動する速度も格納されている。
The
撮像処理部35は、放射線発生器駆動部16、基板保持部駆動部18及び検出器駆動部20により、放射線発生器22、基板保持部24及び検出器26を駆動させて、基板保持部24により保持された被検査体の透過画像を撮像し、透過画像から再構成画像を生成する。この撮像処理部35による透過画像の撮像及び再構成画像の生成方法については、後述する。
The image
断面画像生成部36は、記憶部34から取得した複数の透過画像に基づいて、断面画像を生成する。これは、例えばFBP法や最尤推定法等、既知の技術を用いて実現できる。再構成アルゴリズムが異なると、得られる再構成画像の性質や再構成に要する時間も異なる。そこで、あらかじめ複数の再構成アルゴリズムやアルゴリズムに用いられるパラメータを用意しておき、ユーザに選択させる構成としてもよい。これにより、再構成に要する時間が短くなることを優先したり、時間はかかっても画質の良さを優先したりするなどの選択の自由度をユーザに提供することができる。生成した断面画像は記憶部34に出力し、この記憶部34に記録される。なお、上述した撮像処理部35は、記憶部34に記憶されているAIモデルを用いて透過画像又は断面画像を補正することも可能である。透過画像又は断面画像の補正方法については後述する。
The cross-sectional
基板検査面検出部38は、断面画像生成部36が生成した複数の断面画像の中から、基板上の検査の対象となる面(例えば、基板の表面)を映し出している位置(断面画像)を特定する。以後、基板の検査面を映し出している断面画像を「検査面画像」という。検査面画像の検出方法についての詳細は後述する。
The substrate inspection
疑似断面画像生成部40は、断面画像生成部36が生成した断面画像について、連続する所定枚数の断面画像を積み上げることにより、断面画像よりも厚い基板の領域を画像化する。積み上げる断面画像の枚数は、断面画像が映し出す基板の領域の厚さ(以後、「スライス厚」という。)と、疑似断面画像のスライス厚とによって定める。例えば、断面画像のスライス厚が50μmで、疑似断面画像としてBGAのはんだボール(以後単に「はんだ」という。)の高さ(例えば500μm)をスライス厚としようとするならば、500/50=10枚の断面画像を積み上げればよい。この際、はんだの位置を特定するために、基板検査面検出部38が特定した検査面画像が用いられる。
The pseudo cross-sectional
検査部42は、断面画像生成部36が生成した断面画像、基板検査面検出部38が特定した検査面画像、及び疑似断面画像生成部40が生成した疑似断面画像に基づいて、はんだの接合状態を検査する。基板と部品とを接合するはんだは基板検査面付近にあるので、検査面画像及び検査面画像に対して放射線発生器22側の領域を映し出している断面画像を検査することで、はんだが基板と部品とを適切に接合しているか否かが判断できる。
The
ここで、「はんだの接合状態」とは、基板と部品とがはんだにより接合し、適切な導電経路が生成されているか否かのことをいう。はんだの接合状態の検査には、ブリッジ検査、溶融状態検査、及びボイド検査が含まれる。「ブリッジ(bridge)」とは、はんだが接合することにより生じた導体間の好ましくない導電経路のことをいう。また、「溶融状態」とは、はんだの溶融不足により、基板と部品との間の接合が不足しているか否かの状態、いわゆる「浮き」か否かの状態をいう。「ボイド(void)」とは、はんだ接合部内の気泡によるはんだ接合の不具合のことをいう。したがって検査部42は、ブリッジ検査部44、溶融状態検査部46、及びボイド検査部48を含む。
Here, the "soldering state" refers to whether or not the substrate and the component are joined by soldering to generate an appropriate conductive path. Inspection of the solder joint condition includes bridge inspection, melt condition inspection, and void inspection. "Bridge" refers to an unfavorable conductive path between conductors created by joining solder. Further, the "melted state" refers to a state of whether or not the bonding between the substrate and the component is insufficient due to insufficient melting of the solder, that is, a state of whether or not it is "floating". "Void" refers to a defect in the solder joint due to air bubbles in the solder joint. Therefore, the
ブリッジ検査部44、溶融状態検査部46、及びボイド検査部48の動作の詳細は後述するが、ブリッジ検査部44およびボイド検査部48は、疑似断面画像生成部40が生成した疑似断面画像に基づいてそれぞれブリッジおよびボイドの検査をし、溶融状態検査部46は基板検査面検出部38が特定した検査面画像に基づいてはんだの溶融状態を検査する。なお、ブリッジ検査部44、溶融状態検査部46、及びボイド検査部48における検査結果は記憶部34に記録される。
The details of the operations of the
図3は透過画像の撮像及び再構成画像の生成、及び、検査面画像の特定から、はんだの接合状態を検査するまでの流れを示したフローチャートである。また、図4は透過画像の撮像及び再構成画像の生成の処理の部分の流れを示したフローチャートである。本フローチャートにおける処理は、例えば、制御部10が図示しない入力装置から検査開始の指示を受け付けたときに開始する。
FIG. 3 is a flowchart showing a flow from capturing a transmission image, generating a reconstructed image, specifying an inspection surface image, and inspecting the solder joint state. Further, FIG. 4 is a flowchart showing the flow of the processing portion of the imaging of the transparent image and the generation of the reconstructed image. The process in this flowchart starts, for example, when the
制御部10は、図3に示すように、検査対象物(被検査体)が検査装置内に搬入されると(ステップS100)、放射線発生器駆動部16により放射線発生器22により放射される放射線の照射野を設定し、基板保持部駆動部18により基板保持部24を移動させるとともに、検出器駆動部20により検出器26を移動させて撮像位置を変更しながら、線質変更部14により放射線発生器22の線質を設定して放射線を基板に照射して透過画像を撮像し、さらに、このようにして撮像された複数枚の透過画像から、断面画像生成部36及び疑似断面画像生成部40により再構成画像(断面画像・疑似断面画像)を生成する(ステップS120)。なお、透過画像を撮像する際の、基板保持部駆動部18による基板保持部24の移動経路、及び、検出器駆動部20による検出器26の移動経路は、記憶部34に記憶させた情報を読み込む方法や、入力装置から入力する方法により、予め基板保持駆動部18及び検出器駆動部20に設定されているものとする。また、放射線発生器22のZ軸方向の位置も、同様の方法により予め設定されているものとする。
As shown in FIG. 3, the
このステップS120の処理の詳細を図4及び図5を用いて説明する。図4に示すように、制御部10の撮像処理部35は、ステップS120が開始されると、基板保持部駆動部18及び検出器駆動部20に出力される作動信号をオンにする(ステップS1000)。図5(a)における時刻t0に相当する。この作動信号がオンとなると、基板保持部駆動18は、基板保持部24の移動を開始させ(ステップS1002)、検出器駆動部20は、検出器26の移動を開始させる(ステップS1004)。基板保持部24及び検出器26は、上述したように予め設定されている移動経路に沿って移動される。
The details of the process of this step S120 will be described with reference to FIGS. 4 and 5. As shown in FIG. 4, when the step S120 is started, the image
撮像処理部35は、撮像タイミングか否かを判断し(ステップS1006)、撮像タイミングでないと判断した場合(ステップS1006の「N」)、所定の時間をおいて再度このステップを繰り返し、撮像タイミングであると判断した場合(ステップS1006の「Y」)、撮像開始信号(トリガー)を検出器26に送信する(ステップS1008)。例えば、図5(a)の例では時刻t1に検出器26に対するトリガーをオンにする。
When the image
撮像処理部35によりトリガーがオンされたことを検出した検出器26は、透過画像の撮像を開始するとともに、撮像を開始したことを示す応答信号を撮像処理部35に送信する(ステップS1010)。また、検出器26は、放射線発生器駆動部16に露光信号を送信する(ステップS1012)。例えば、図5(a)の例では時刻t2から時間Tの間、放射線発生器駆動部16に出力する露光信号をオンにする。このように、検出器26から放射線発生器駆動部16に露光信号を送信するように構成すると、撮像開始から露光開始までの遅延を限りなく小さくすることができる。
The
検出器26から露光信号を受信した放射線発生器駆動部16は、露光信号がオンの間、放射線発生器22から放射線を発生させ、この放射線が被検査体に照射される(ステップS1014)。ここで、検出器26がローリングシャッター方式を採用している場合、この検出器26の受光素子で検出されたX線の情報(強度等)は、所定の方向に並ぶ複数の走査ラインに沿って取得されるが、走査ライン毎に開始時刻がずれて取得される。例えば、図5(b)に示すように、検出器26が、左右方向に延びるn本の走査ラインで構成されている場合、上からL1、L2、L3、・・・、Ln-1、Lnの順で開始時刻がずれて検出された情報が取得される。そのため、全ての走査ラインがデータを取得している時間(図5(b)の場合時間Tの間)に、放射線発生器22からX線を発生させることにより、各走査ラインから得られる情報は、同じ時間に照射されたX線による情報となるため、取得された透過画像の歪みを防止することができる。
The radiation
また、検出器26から送信された応答信号を受信した撮像処理部35は、基板位置検出部29から基板保持部24の位置情報を取得し、検出器位置検出部31から検出器26の位置を取得して記憶する(ステップS1016)。なお、基板保持駆動部18による基板保持部24の移動と、検出器駆動部20による検出器26の移動は、上述したように予め決められた移動経路に沿って制御されるため、基板保持部24の位置及び検出器26の位置のいずれか一方が分かれば他方の位置も分かるため、基板保持部24及び検出器26の両方の位置を記憶しても良いし、いずれか一方の位置を記憶してもよい。また、基板保持部24及び検出器26の位置は、上述したXY直交座標系(X軸方向及びY軸方向の位置(x,y)の形式)で記憶しても良いし、基板回転軌道28及び検出器回転軌道30の軌道面の中心を原点として極座標系(原点からの距離rと、角度θで特定する位置(r,θ)の形式)で記憶してもよい。
Further, the image
以上のようにして、透過画像の撮像が終了すると、検出器26は、撮像された透過画像を撮像処理部35に送信する(ステップS1018)。そして、この透過画像を取得した撮像処理部35は、ステップS1016で取得した基板保持部24の位置情報及び検出器26の位置情報と取得した透過画像とを対応付けて記憶部34に記憶する(ステップS1020)。
When the imaging of the transmitted image is completed as described above, the
また、撮像処理部35は、次の撮像位置があるか否かを判断し(ステップS1022)、次の撮像位置があると判断した場合(ステップS1022の「Y」)、ステップS1006に戻って上述した処理(ステップS1006~S1020)を繰り返す。一方、撮像処理部35は、次の撮像位置がないと判断した場合(ステップS1022の「N」)、基板保持部駆動部18及び検出器駆動部20に出力される作動信号をオフにし(ステップS1024)、作動信号がオフになったことを検出した基板保持部駆動部18は基板保持部24の移動を停止させ(ステップS1026)、検出器駆動部20は検出器26の移動を停止させる(ステップS1028)。例えば、図5(a)の時刻t3に相当する。
Further, when the image
最後に、撮像処理部35は、断面画像生成部36及び疑似断面画像生成部40により、記憶部34に記憶されている透過画像から再構成画像を生成する(ステップS1030)。生成された再構成画像は、記憶部34に記憶してもよい。
Finally, the image
次に、図3に戻り、制御部10は、予め設定された情報に基づき、被検査体の自動検査を実施する(ステップS140)。具体的には、制御部10の基板検査面検出部38は、断面画像生成部36から透過画像または再構成画像(断面画像)を受け取り、その中から検査面画像を特定する(ステップS141)。ブリッジ検査部44は、疑似断面画像生成部40からはんだボールを映し出しているはんだボールと同程度のスライス厚の疑似断面画像を取得し、ブリッジの有無を検査する(ステップS142)。ブリッジを検出しない場合には(ステップS143の「N」)、溶融状態検査部46は基板検査面検出部38から検査面画像を取得し、はんだが溶融しているか否かを検査する(ステップS144)。はんだが溶融している場合には(ステップS145の「Y」)、ボイド検査部48は疑似断面画像生成部40からはんだボールを部分的に映し出している疑似断面画像を取得し、ボイドが存在するか否かを検査する(ステップS146)。ボイドが見つからない場合には(ステップS147の「N」)、ボイド検査部48は、はんだの接合状態は正常と判断し(ステップS148)、その旨を記憶部34に出力する。また、ブリッジを検出した場合(ステップS143の「Y」)、はんだが溶融していない場合(ステップS145の「N」)、またはボイドが存在する場合(ステップS147の「Y」)には、それぞれブリッジ検査部44、溶融状態検査部46、およびボイド検査部48ははんだの接合状態は異常と判断して(ステップS149)その旨を記憶部34に出力する。はんだの状態が記憶部34に出力されると、自動検査の処理を終了する。
Next, returning to FIG. 3, the
最後に、制御部10は、検査結果をモニタ12等に出力し(ステップS160)、検査対象物(被検査体)を搬出して(ステップS180)、本フローチャートによる検査を終了する(若しくは、次の被検査体の上述した処理による検査を開始する)。
Finally, the
以上の方法によると、透過画像が撮像された位置は、撮像処理部35が検出器20にトリガーを送信した時刻の情報ではなく、検出器26が画像の取得の開始した時刻(検出器26から応答信号を受信した時刻)の情報となる。放射線発生器22と基板保持部24及び検出器26との相対位置を変化させている状態(基板保持部24及び検出器26が移動しつづけている状態)の場合、撮像処理部35がトリガーを送信してから検出器26が画像の取得を開始するまでは遅延が発生するため、トリガーが送信された時刻の基板保持部24及び検出器26の位置は、実際に透過画像が撮像される位置とずれている可能性がある。そのため、上述したように、検出器26が画像の取得を開始し、そのときに検出器26から送信される応答信号を撮像処理部35が受信したときに、基板保持部24及び検出器26の位置を取得することにより、正確な位置情報を取得することができ、これにより再構成画像の精度を向上させることができる。また、基板保持部駆動部18による基板保持部24の移動経路、及び、検出器駆動部20による検出器26の移動経路は、駆動部の特性等により、予め指定した位置からずれる場合があるが、上述したように、これらの位置は基板位置検出部29及び検出器位置検出部31により検出された位置であるため、正確な位置情報を取得することができ、再構成画像の精度をさらに構成させることができる。
According to the above method, the position where the transmitted image is captured is not the information of the time when the
なお、基板保持部24及び検出器26の位置情報及び透過画像は、制御部10の記憶領域(メモリやハードディスク等)のうち、所定の領域を循環的に使用して記憶する方式(所定の領域の先頭から順次情報を記憶し、所定の領域の最後に情報を記憶したときは、所定の領域の先頭に戻って記憶させる方式)を採用することより、記憶領域を効率よく利用することができる。
The position information and the transmitted image of the
また、検出器26がローリングシャッター方式により透過画像を撮像している場合、放射線発生器22と基板保持部24及び検出器26との相対位置を変化させている状態で透過画像を取得すると画像が歪む場合があるが、上述したように、放射線発生器22から放射されるX線のオン/オフを(露光信号のオン/オフ)を検出器26のローリングシャッターの信号(応答信号)に同期させることにより、歪みのない透過画像を取得することができる。
Further, when the
既に説明したように、以上のような構成の検査装置1において、検査時間の短縮や被検査体に照射される放射線の量を少なくするためには、検査時の被検査体の撮像時間を短くする、若しくは、照射される放射線を弱くする必要がある。撮像時間を短くするためには、露光時間(放射線の照射時間)を短くする、FOVを広くする、或いは再構成画像の生成に用いる透過画像の枚数を減らす方法が考えられる。しかし、このような方法で撮像時間を短くしたり、照射される放射線を弱くしたりすると、透過画像や、透過画像から生成された再構成画像から切り出される断面画像のノイズが増加し、或いは、解像度が低くなり、結果として、これらの画像を用いた検査の精度が低下する可能性がある。
As described above, in the
本実施形態に係る検査装置1は、透過画像または断面画像からノイズを除去するため、また、これらの画像を高解像度化するために、AIモデルを使って補正するように構成されている。すなわち、検査のために撮像した画像(透過画像又は断面画像)を入力画像とし、この入力画像に対してAIモデルを適用することで、AIで補正された画像が出力画像として得られる。以下に、AIモデルを使った補正の方法について説明する。
The
本実施形態に係る補正方法は、予め、検査装置1で撮像された被検査体の画像(透過画像又は断面画像)を教師用データ及び学習用データとして用いて深層学習(Deep learning)等の機械学習(以降の説明では「AI学習」と呼ぶ)を行ってAIモデルを生成し、検査では、生成されたAIモデルを使って透過画像又は断面画像を補正するように構成されている。まず、図6~図9を用いてAI学習(深層学習)の処理について説明する。なお、以降の説明において、「教師用画像」とは、十分な露光時間や放射線の線質(放射線の輝度と硬さ)で撮像されたノイズが少ない被検査体の画像、若しくは、十分な解像度(検査において所定の検査精度を得ることができる解像度)である被検査体の画像を示し、また、「学習用画像」とは、実際の検査において設定される露光時間や放射線の線質、又は解像度で撮像された、ノイズが含まれる、若しくは低い解像度の被検査体の画像を示すものとする。
The correction method according to the present embodiment is a machine such as deep learning using an image (transmission image or cross-sectional image) of the object to be inspected captured by the
また、本実施形態に係る検査装置1では、AIモデルを使った補正の対象が透過画像の場合と断面画像の場合がある。さらに、補正対象がノイズを減少させる場合と、解像度を高くする場合とがあるが、ここでは、ノイズを減少させる場合について説明する。
Further, in the
また、本実施形態に係る検査装置1では、透過画像若しくは断面画像の全体領域Ra(例えば、2000×2000ピクセル程度の領域)を複数の部分領域Rs(例えば、256×256ピクセルの領域)に分割し、各々の部分領域Rsに対して(教師用画像及び学習用画像の同じ位置の部分領域Rsを用いて)学習または補正を行うように構成されている。また、AI学習の処理では、図7に示すように、画像の全体領域Raのうち、3/4の領域を学習のために使用し、残りの1/4の領域を検証(性能評価)のために使用する。なお、図7に示す検証用の領域及び学習用の領域の配置は一例であり、任意の部分領域Rsを検証用又は学習用に割り当てることが可能である。また、1枚の画像における検証用の領域と学習用の領域の割合も、3/4及び1/4の組合せに限定されることはなく、適宜設定することができる。
Further, in the
また、既に説明したように、被検査体の検査においては、放射線発生器22と、被検査体が載置された基板保持部24及び検出器26との相対位置を変化させて複数の透過画像を撮像するため、1つのFOVに対して、数十枚から数百枚の透過画像(教師用画像及び学習用画像の組)が得られるため、透過画像を補正するためのAIモデルを生成する場合は、これら複数枚の透過画像を用いて学習が行われる。また、これらの透過画像から再構成画像が生成され(教師用画像の透過画像から教師用画像の再構成画像が生成され、学習用画像の透過画像から学習用画像の再構成画像が生成される)、この再構成画像から数百枚の断面画像(教師用画像及び学習用画像の組)が得られるため、断面画像を補正するためのAIモデルを生成する場合は、これら複数枚の断面画像を用いて学習が行われる。
Further, as already described, in the inspection of the inspected object, a plurality of transmitted images are obtained by changing the relative positions of the
学習を開始する前に、検査装置1の基板保持部24に学習対象の被検査体を載置する。また、入力装置等により、被検査体上のどの部分で学習するか、すなわち、学習の対象となるFOV(撮像エリア)を入力する。また、入力装置等により、教師用画像の撮像条件(線質・露光時間・倍率等)や学習用画像の撮像条件を入力する。さらに、出力されるAIモデルの対象として、透過画像と断面画像の何れかが入力される。
Before starting learning, the object to be inspected is placed on the
そして、入力装置等により学習処理の開始が指示されると、図6に示すように、制御部10の学習処理部37は、撮像処理部35を介してFOVを配置する、すなわち、被検査体上の撮像エリアを設定する(ステップS200)。
Then, when the start of the learning process is instructed by the input device or the like, as shown in FIG. 6, the
学習処理部37は、ステップS200でFOVが配置されると、撮像処理部35を介して、予め入力されている露光時間、放射線の線質、倍率等で教師用画像(透過画像)を撮像して記憶部34に記憶し(ステップS202)、同様に、予め入力されている露光時間、放射線の線質、倍率等で学習用画像(透過画像)を撮像して記憶部34に記憶する(ステップS204)。なお、上述したように、1つのFOVに対しては、放射線発生器22と、被検査体が載置された基板保持部24及び検出器26との相対位置を変化させて複数の透過画像が撮像されるため、基板保持部24及び検出器26を移動させ、複数の位置でステップS202及びS204が実行される。また、断面画像を補正するためのAI学習を行う場合は、ステップS202において、撮像された教師用画像(透過画像)から教師用の再構成画像を生成し、さらにその再構成画像から教師用の断面画像を生成して記憶部34に記憶する。同様に、ステップS204において、撮像された学習用画像(透過画像)から学習用の再構成画像を生成し、さらにその再構成画像から学習用の断面画像を生成して記憶部34に記憶する。
When the FOV is arranged in step S200, the
次に、学習処理部37は、AI学習の画像セット及び学習パラメータの指定を行う(ステップS206)。ここで、学習パラメータとは、学習の繰り返し回数やネットワーク構造に関連する情報である。この学習パラメータは、予め記憶部34に記憶させておいてもよいし、入力装置等から入力させてもよい。
Next, the
ステップS206でAI学習の画像セット等が行われると、学習処理部37は、既存AIモデルを使用するか否かを判断する(ステップS208)。補正の際に用いるAIモデルは、FOV毎に、そのFOVに特化したAIモデルとしてもよいし、複数のFOVで同じAIモデルとしてもよい。
When the AI learning image set or the like is performed in step S206, the
ここで、FOV内(画像内)の特定の対象物、例えば、BGA、チップ抵抗、ICのリード部などの部品毎に特化したAIモデルとしてもよいし、はんだ接合部だけに特化したAIモデルとしてもよい。はんだ接合だけに特化することにより、特化した高性能モデルにすることができ、また、上述した処理により検査面画像を特定し、検査面画像及び検査面画像に対して放射線発生器22側の領域を映し出している断面画像を検査することで、AIモデルによる補正を検査すべき領域だけに限定することで処理時間の短縮化を図ることができる。なお、図7に示したように、複数の部分領域Rsに分割しているため、分割された領域(部分領域Rs)毎に特化したAIモデルを作成するように構成してもよい。一方、複数のFOVで同じAIモデルとすることにより、FOVを跨いだ汎用的なAIモデルとすることができる。
Here, an AI model specialized for each specific object in the FOV (in the image), for example, a BGA, a chip resistor, an IC lead portion, or the like, or an AI specialized only for the solder joint portion may be used. It may be a model. By specializing only in solder bonding, it is possible to make a specialized high-performance model, and the inspection surface image is specified by the above-mentioned processing, and the
したがって、FOVに特化したAIモデルを構築する場合は、既存のAIモデルを使用せずに新規のAIモデルを作成し、複数のFOVで共通のAIモデルを構築する場合は、既存のAIモデルを使用することとなる。また、被検査体の画像が複数の撮像領域(FOV)に分割されて撮像される場合に、一部のFOVにはそのFOVに特化したAIモデルを作成し、一部のFOVには共通したAIモデルを作成するように構成してもよい。なお、既存AIモデルの使用の可否についても、予め記憶部34に記憶させておいてもよいし、入力装置から入力させてもよい。既存のAIモデルを使用しない場合には(ステップS208の「N」)、学習処理部37は新規のAIモデルを作成し(ステップS210)、既存のAIモデルを使用する場合には(ステップS208の「Y」)、学習処理部37は記憶部34から既存のAIモデルを読み込む(ステップS212)。なお、AIモデルを記憶部34に記憶する際には、AIモデル毎に対応するFOVの情報も管理される。
Therefore, when building an AI model specialized for FOV, create a new AI model without using the existing AI model, and when building a common AI model with multiple FOVs, use the existing AI model. Will be used. Further, when the image of the object to be inspected is divided into a plurality of imaging regions (FOVs) and imaged, an AI model specialized for the FOV is created for some FOVs, which is common to some FOVs. It may be configured to create the AI model. Whether or not the existing AI model can be used may be stored in the
さらに、学習処理部37は、教師用画像及び学習用画像を用いて上述したAI学習を行う(ステップS214)。図7を用いて説明したように、分割した部分領域Rsのうち、学習用の部分領域Rsのそれぞれに対してAI学習が行われる。AI学習は、深層学習等の手法により、学習用画像(透過画像の場合と断面画像の場合がある)を入力して、教師用画像(学習用画像と同様に、透過画像の場合と断面画像の場合がある)に近い画像になるようにAIモデルを訓練する。そして、学習処理部37は、AI学習の結果に基づいてAIモデルを更新する(ステップS216)。また、学習処理部37は、学習の進捗状況をモニタ12に表示するように構成してもよく、学習の進捗状況を表示している場合は、その表示を更新する(ステップS218)。進捗状況には、AIモデルの性能評価が含まれる。
Further, the
AIモデルの性能評価は損失(Loss)を計算することで行う。AI学習により訓練したAIモデルを学習用と検証用のそれぞれの画像(入力画像)に適用し、補正された画像(高画質の出力画像)を生成する。この生成した出力画像と教師用画像との評価値の差(例えば、輝度値の平均二乗誤差)を取ることで損失が計算される。ここで損失は、教師用画像とAIモデルにより補正された画像との差が、失われた又は損なわれた質(或いは、復元できなかった質)である。したがって、損失の表現には、上述したように単純に輝度値を比べてもよいし、それ以外にも、エッジ部分を強調して比べたり、周波数成分で比べたりしてもよい。そのため、損失は、上記の方針にしたがって決定された損失関数を定義し、この損失関数に基づいて算出される。 The performance evaluation of the AI model is performed by calculating the loss. The AI model trained by AI learning is applied to each image (input image) for learning and verification, and a corrected image (high-quality output image) is generated. The loss is calculated by taking the difference between the evaluation values of the generated output image and the teacher's image (for example, the mean square error of the luminance value). The loss here is the quality at which the difference between the teacher image and the image corrected by the AI model is lost or impaired (or irrecoverable). Therefore, in expressing the loss, the luminance values may be simply compared as described above, or other than that, the edge portion may be emphasized and compared, or the frequency component may be compared. Therefore, the loss defines a loss function determined according to the above policy and is calculated based on this loss function.
図8は、学習用画像にAIモデルを適用した画像の損失(出力画像であって、図8においては「学習」として示す)と、性能評価を行った損失(図8においては「評価」として示す)とを、エポック数(学習の繰り返し回数)に対応させて示したグラフである。出力画像の損失が小さいにもかかわらず、性能評価の損失が大きくなると(図8の破線)、過学習(過剰に学習データに特化し、汎用性のないAIモデルが生成される状態)が起っているものと考えられる。一方、出力画像及び性能評価の損失が何れも小さくなってくると、学習が正常に進んでいると考えられる。図9において、(a)は入力画像(学習用画像)であり、(b)はこの入力画像にAIモデルを適用して補正した出力画像である。学習が正常に行われていると、出力画像は(c)の教師用画像に近い画像になるが、過学習の状態では、(d)のような異常な状態の画像となる。なお、異常な状態とは、輝度値が大きく異なる部分がある状態や、撮像物の形状が本来の形状から大きく異なる状態のことである。 FIG. 8 shows the loss of the image to which the AI model is applied to the learning image (the output image, which is shown as “learning” in FIG. 8) and the loss of the performance evaluation (as “evaluation” in FIG. 8). (Shown) is a graph showing the number of epochs (number of repetitions of learning). If the loss of performance evaluation is large even though the loss of the output image is small (dashed line in FIG. 8), overfitting (a state in which an AI model that is excessively specialized in training data and is not versatile is generated) occurs. It is thought that it is. On the other hand, when the loss of both the output image and the performance evaluation becomes small, it is considered that the learning is proceeding normally. In FIG. 9, (a) is an input image (learning image), and (b) is an output image corrected by applying an AI model to this input image. When the learning is normally performed, the output image becomes an image close to the teacher image of (c), but in the overfitting state, it becomes an image of an abnormal state as shown in (d). The abnormal state is a state in which there is a portion where the luminance value is significantly different, or a state in which the shape of the imaged object is significantly different from the original shape.
以上より、ステップS218において、学習の進捗状況をモニタ12等に表示する際に、図8に示す損失のグラフや、図9に示す、入力画像、出力画像、教師用画像を並べて表示することにより、学習の状況を目視により確認することができる。上述したように、損失のグラフにおいて、出力画像の損失に対して性能評価の損失が大きくなっているときや、出力画像と教師用画像とが大きく異なるときは、異常な学習である(過学習である)と判断することができ、学習を中断することで異常な学習(無駄な時間)を少なくすることができる。また、損失が小さくなり、或いは出力画像が教師用画像に近くなったときに学習を終了させることで、学習時間を短縮かすることができる。なお、学習の進捗状況の表示には、学習を開始してからの経過時間や、学習を終了するまでの残り時間の見込みを表示してもよい。
From the above, in step S218, when the progress of learning is displayed on the
図6に戻り、学習処理部37は、次の学習を行うか否かを判断する(ステップS220)。未だ学習していない透過画像又は断面画像がある場合、または所定の繰り返し数の学習を終えていない場合(ステップS220の「Y」)、学習処理部37は、ステップS216に戻って上述した処理を繰り返す。一方、未だ学習していない透過画像又は断面画像がない場合、あるいは、入力装置等から学習の終了指示がされた場合(ステップS220の「N」)、学習処理部37は、AIモデルを記憶部34に出力して(ステップS220の「Y」)、AI学習の処理を終了する。なお、上述したように、過学習と判断されて中断された場合(ステップS220の「中断」)、学習処理部37は、AIモデルを出力することなく、AI学習の処理を終了する。
Returning to FIG. 6, the
以上の説明は、ノイズを除去する補正のためのAIモデルの学習について説明したが、高解像度化する補正のためのAIモデルの学習の場合には、教師用画像と学習用画像の解像度を変えて取得することが必要である。例えば、図6のステップS202において、教師用画像(透過画像)を取得する際に、実際の検査のときのFOVを四分割し、倍率(拡大率)を高くして撮像し、4枚の画像を1枚の画像にして教師用画像とし、ステップS204で撮像する学習用画像(透過画像)は、実際の検査のときのFOVで撮像する。これにより、高解像度の教師用画像と低解像度の学習用画像を取得することができる。 The above explanation has described the learning of the AI model for correction to remove noise, but in the case of learning the AI model for correction to increase the resolution, the resolutions of the teacher image and the learning image are changed. It is necessary to obtain it. For example, in step S202 of FIG. 6, when acquiring a teacher's image (transparent image), the FOV at the time of the actual inspection is divided into four, the magnification (magnification) is increased, and the four images are imaged. Is used as a teacher image, and the learning image (transmission image) captured in step S204 is captured by the FOV at the time of the actual inspection. This makes it possible to acquire a high-resolution teacher image and a low-resolution learning image.
また、再構成画像を生成するための透過画像の枚数を少なくすることでも、撮像時間の短縮や被曝量の減少に効果がある。透過画像の枚数を少なくすると、再構成画像(断面画像)の解像度が低くなり、検査の精度に影響する可能性がある。そのため、撮像された透過画像から、疑似透過画像を生成して透過画像の枚数を増やすことにより、再構成画像(断面画像)を高解像度化することができる。ここで、疑似透過画像は、撮像された透過画像のうち、隣接する2枚の透過画像からその間の透過画像を生成することにより得ることができる。このような補間をサイノグラムの補間と呼ぶ。 Further, reducing the number of transmitted images for generating the reconstructed image is also effective in shortening the imaging time and reducing the exposure dose. If the number of transparent images is reduced, the resolution of the reconstructed image (cross-sectional image) is lowered, which may affect the accuracy of the inspection. Therefore, the reconstructed image (cross-sectional image) can be made high in resolution by generating a pseudo-transparent image from the captured transparent image and increasing the number of transparent images. Here, the pseudo-transparent image can be obtained by generating a transparent image between two adjacent transparent images among the captured transparent images. Such interpolation is called synogram interpolation.
上述したAI学習の処理は、サイノグラムの補間にも適用することができる。サイノグラムの補間のためのAIモデルを生成する場合、図6のステップS202において、教師用画像(透過画像)を取得する。この際、1つのFOVに対する透過画像の枚数は、それらの透過画像から生成される再構成画像(断面画像)の解像度が所定の検査精度を得られる解像度となる枚数とする。そして、ステップS204では、学習用画像(透過画像)を撮像する代わりに、ステップS202で取得した教師用画像から所定の枚数の透過画像を間引いたものを学習用画像とする。例えば、ステップS202で、教師用画像として150枚の透過画像を取得した場合、ステップS204ではその教師用画像(透過画像)から75枚を間引いて残りの75枚を学習用画像(透過画像)とする。 The AI learning process described above can also be applied to interpolation of synograms. When generating an AI model for interpolation of a synogram, a teacher image (transparent image) is acquired in step S202 of FIG. At this time, the number of transparent images for one FOV is set so that the resolution of the reconstructed image (cross-sectional image) generated from those transparent images is the resolution at which a predetermined inspection accuracy can be obtained. Then, in step S204, instead of capturing the learning image (transparent image), a predetermined number of transparent images are thinned out from the teacher image acquired in step S202 to be a learning image. For example, when 150 transparent images are acquired as teacher images in step S202, 75 images are thinned out from the teacher image (transparent image) in step S204, and the remaining 75 images are used as learning images (transparent images). do.
さらに、ステップS214~S220のAI学習の処理においては、学習用画像の隣接する任意の2枚の透過画像からその間の透過画像を生成するためのAIモデルを学習により構築する。例えば、N番目の透過画像を補間する場合、N-1番目の透過画像とN+1番目の透過画像を入力画像とし、この入力画像にAIモデルを適用してN番目の透過画像(疑似透過画像)を出力画像として得るための学習をする。 Further, in the AI learning process of steps S214 to S220, an AI model for generating a transparent image between two adjacent transparent images of the learning image is constructed by learning. For example, when interpolating the Nth transparent image, the N-1st transparent image and the N + 1th transparent image are used as input images, and the AI model is applied to the input images to apply the Nth transparent image (pseudo transparent image). To learn to obtain as an output image.
以上の説明において、AIモデルの補正対象を透過画像にするか断面画像にするか、透過画像又は断面画像からノイズ除去をするか高解像度化するか、サイノグラムの補間を行うか、被検査体の特定の領域(基板表面や特定の部品)の画像の学習を行うか否か、FOV毎のAIモデルを作成するかFOVに共通したAIモデルを作成するか、或いは、教師用画像及び学習用画像の画質や学習の終了条件というような学習の条件等は、モニタ12やキーボード・マウスからなるユーザインタフェースから制御部10に対して設定することができる。また、学習状況の確認や学習処理の終了もこのユーザインタフェースを介して行うことができる。
In the above description, whether the correction target of the AI model is a transparent image or a cross-sectional image, noise is removed from the transparent image or the cross-sectional image or the resolution is increased, the synogram is interpolated, or the subject is inspected. Whether to learn the image of a specific area (board surface or specific component), create an AI model for each FOV, create an AI model common to FOV, or create a teacher image and a learning image. The learning conditions such as the image quality and the learning end condition can be set for the
以上のようにして得られたAIモデルを、検査に適用するときは、図3に示すステップS120において、取得された透過画像又は再構成画像(断面画像)に上述したAIモデルを適用して補正を行う(ノイズを補正する、高解像度化する、サイノグラムの補間をする等)。以下、図10を用いてAIモデルによる透過画像又は再構成画像(断面画像)を補正する処理について説明する。 When the AI model obtained as described above is applied to an inspection, the AI model described above is applied to the acquired transmission image or reconstructed image (cross-sectional image) in step S120 shown in FIG. 3 for correction. (Correct noise, increase resolution, interpolate synogram, etc.). Hereinafter, the process of correcting the transmission image or the reconstructed image (cross-sectional image) by the AI model will be described with reference to FIG.
図10(a)は、AIモデルによる補正を透過画像に適用する場合の処理を示している。制御部10は、検査用の撮像条件で被検査体の透過画像を撮像し(ステップS121a)、撮像された透過画像に対してAIモデルを用いた補正を行う(ステップS122a)。そして、制御部10は、補正された透過画像により再構成画像(断面画像)を生成し(ステップS123a)、透過画像撮影・再構成画像生成処理S120を終了する。
FIG. 10A shows a process when the correction by the AI model is applied to the transparent image. The
また、図10(b)は、AIモデルによる補正を再構成画像(断面画像)に適用する場合の処理を示している。制御部10は、検査用の撮像条件で被検査体の透過画像を撮像し(ステップS121b)、撮像された透過画像により再構成画像(断面画像)を生成する(ステップS122b)。そして、制御部10は、生成された再構成画像(断面画像)に対してAIモデルを用いた補正を行い(ステップS123b)、透過画像撮影・再構成画像生成処理S120を終了する。
Further, FIG. 10B shows a process when the correction by the AI model is applied to the reconstructed image (cross-sectional image). The
また、図10(c)は、再構成画像(断面画像)のうち、特定された領域の再構成画像(断面画像)のみにAIモデルを適用して補正する場合の処理を示している。制御部10は、検査用の撮像条件で被検査体の透過画像を撮像し(ステップS121c)、撮像された透過画像により再構成画像(断面画像)を生成する(ステップS122c)。そして、制御部10は、生成された再構成画像(断面画像)から、ステップS141で説明した方法等により基板表面(検査面画像)を特定し(ステップS123c)、特定された検査面画像及び検査面画像に対して放射線発生器22側の領域を映し出している断面画像に対してAIモデルを用いた補正を行い(ステップS124c)、透過画像撮影・再構成画像生成処理S120を終了する。
Further, FIG. 10C shows a process in which the AI model is applied only to the reconstructed image (cross-sectional image) of the specified region in the reconstructed image (cross-sectional image) to correct the image. The
このとき、FOVに特化したAIモデルが作成されている場合は、FOV毎に、そのFOVに対応するAIモデルが適用されて補正が行われる。上述したように、複数のFOVのうち、一部のFOVにはそのFOVに特化したAIモデルを適用し、一部のFOVには共通のAIモデルを適用するように構成してもよい。 At this time, if an AI model specialized for the FOV is created, the AI model corresponding to the FOV is applied to each FOV and correction is performed. As described above, among the plurality of FOVs, an AI model specialized for the FOV may be applied to some FOVs, and a common AI model may be applied to some FOVs.
以上のように、検査時において、透過画像又は再構成画像(断面画像)に対してAIモデルを用いた補正を行うことにより、照射する放射線を弱くしたり、撮像時間を短くしたりしても、図3の以降の処理において、ノイズが除去された又は高解像度化された再構成画像(断面画像・疑似断面画像)による検査を行うことができ、検査精度を向上させることができる。 As described above, even if the transmitted radiation or the reconstructed image (cross-sectional image) is corrected using the AI model at the time of inspection, the irradiated radiation may be weakened or the imaging time may be shortened. In the subsequent processing of FIG. 3, the inspection can be performed by the reconstructed image (cross-sectional image / pseudo-cross-sectional image) from which noise has been removed or the resolution has been increased, and the inspection accuracy can be improved.
このように、本実施形態に係る検査装置においては、AIモデルを用いた補正により、ノイズの除去、高解像度化又はサイノグラムの補間を行っているため、照射する放射線量を弱くする、又は、撮像時間を短くしても、被検査体の良質な画像(透過画像又は断層画像)を取得することができるので、検査精度を向上させることができる。また、検査に係る時間を短くすることができるので、被検査体の全領域を検査しても、全体のスループットを低下させることがない。 As described above, in the inspection apparatus according to the present embodiment, noise is removed, the resolution is increased, or the synogram is interpolated by the correction using the AI model, so that the radiation dose to be irradiated is weakened or the image is taken. Even if the time is shortened, a high-quality image (transmission image or tomographic image) of the inspected object can be obtained, so that the inspection accuracy can be improved. Further, since the time required for inspection can be shortened, even if the entire area of the inspected object is inspected, the overall throughput is not reduced.
ここで、AIモデルの学習は、このAIモデルが搭載される検査装置において、検査対象となる被検査体を撮像した画像を教師用画像及び学習用画像が用いられる。例えば、被検査体が電子基板の場合、様々なタイプのICパッケージが搭載されている(SOJ(Small Outline J-leaded)やBGA(Ball grid array)等)。したがって、上述した方法によると、検査対象となる被検査体そのものを撮像した画像を教師用画像及び学習用画像として用いた学習により、各々の被検査体に特化したAIモデルを構築することができ、検査時の画像(透過画像や断面画像)の画質が向上し、検査精度の向上が期待できる。このような学習のための画像(教師用画像及び学習用画像)は、AIモデルが適用され、このAIモデルを用いて検査時の画像の補正が行われる検査装置で撮像することにより、学習の効果がさらに向上することが期待できる。 Here, in the learning of the AI model, in the inspection device on which the AI model is mounted, a teacher's image and a learning image are used as an image of an image to be inspected to be inspected. For example, when the object to be inspected is an electronic substrate, various types of IC packages are mounted (SOJ (Small Outline J-leaded), BGA (Ball grid array), etc.). Therefore, according to the above-mentioned method, it is possible to construct an AI model specialized for each inspected object by learning using an image of the inspected object itself to be inspected as a teacher image and a learning image. This can improve the image quality of images (transparent images and cross-sectional images) at the time of inspection, and can be expected to improve inspection accuracy. An AI model is applied to such an image for learning (teacher image and learning image), and the image is imaged by an inspection device in which the image at the time of inspection is corrected using this AI model. It can be expected that the effect will be further improved.
なお、教師用画像や学習用画像は検査装置1で取得し、取得された画像を用いて制御部10とは異なる計算機で学習を行い、学習して得られた結果(AIモデル)を制御部10に実装して検査を行うように構成してもよいし、上述したように制御部10で学習を行い、その結果(AIモデル)を用いて検査を行うように構成してもよい。
The teacher image and the learning image are acquired by the
また、上述したAIモデルの学習方法や、生成されたAIモデルによる画像の補正は、X線検査装置だけでなく、AOI方式の検査装置、具体的には、被検査体の上方に光源及び検出器としてのカメラを配置し、光源からの光(縞パターンを有する照明光等)を被検査体に照射してカメラにより画像を取得する方式の検査装置にも適用することが可能である。このような構成の検査装置の場合、カメラのズームレンズの倍率を変化させたり、画素ずらしの方法を用いたりすることにより解像度の異なる画像を教師用画像及び学習用画像として取得することができる。また、取得した複数の画像に対して平均化を行い1枚の画像を生成することにより、ノイズ量の異なる画像を教師用画像及び学習用画像とすることができる。 Further, the above-mentioned AI model learning method and image correction by the generated AI model are performed not only by the X-ray inspection device but also by the AOI type inspection device, specifically, the light source and the detection above the object to be inspected. It can also be applied to an inspection device in which a camera is arranged as a vessel and light from a light source (illumination light having a striped pattern or the like) is applied to an object to be inspected to acquire an image by the camera. In the case of an inspection device having such a configuration, images having different resolutions can be acquired as a teacher image and a learning image by changing the magnification of the zoom lens of the camera or using a pixel shifting method. Further, by averaging the acquired plurality of images and generating one image, images having different noise amounts can be used as a teacher image and a learning image.
1 検査装置
10 制御部
22 放射線発生器(光源、線源)
24 基板保持部(保持部)
26 検出器
1
24 Board holding part (holding part)
26 detector
Claims (12)
前記検査装置で撮像された前記被検査体の画質の高い画像を教師用画像とし、
前記検査装置で撮像された前記被検査体の画質の低い画像であって、前記教師用画像と同一の視野の画像を学習用画像とし、
前記学習用画像を入力とし、前記AIモデルにより補正された画像を出力とし、前記出力と前記教師用画像とを比較して学習することにより、前記AIモデルを作成する
AIモデルの作成方法。 It is a method of creating an AI model in an inspection device that corrects an image of an inspected object using an AI model created by machine learning.
A high-quality image of the subject to be inspected taken by the inspection device is used as a teacher's image.
An image having a low image quality of the subject to be inspected taken by the inspection device and having the same field of view as the teacher's image is used as a learning image.
A method of creating an AI model for creating an AI model by inputting the learning image, using an image corrected by the AI model as an output, and learning by comparing the output with the teacher's image.
請求項1に記載のAIモデルの作成方法。 When the image of the object to be inspected is divided into a plurality of imaging regions and acquired, in at least two imaging regions of the plurality of imaging regions, the AI model specialized for each of the imaging regions is used. The method for creating an AI model according to claim 1.
請求項1または2に記載のAIモデルの作成方法。 A claim that when an image of an object to be inspected is divided into a plurality of regions and acquired, the AI model common to the imaging regions is created in at least two imaging regions of the plurality of imaging regions. The method for creating an AI model according to 1 or 2.
請求項1~3のいずれか一項に記載のAIモデルの作成方法。 Claims 1 to 3 divide the image of the object to be inspected into a plurality of subregions, and in at least two of the plurality of subregions, create the AI model specialized for each of the subregions. The method for creating an AI model according to any one of the above.
請求項1~4のいずれか一項に記載のAIモデルの作成方法。 The method for creating an AI model according to any one of claims 1 to 4, wherein an AI model specialized for an image of a specific region of the inspected object is created among the images of the inspected object.
請求項1~5のいずれか一項に記載のAIモデルの作成方法。 The method for creating an AI model according to any one of claims 1 to 5, wherein the image quality is a noise amount or a resolution.
被検査体を保持する保持部と、
前記光源から放射され、前記被検査体で反射した光または前記被検査体を透過した光を検出して前記被検査体の画像を取得する検出器と、
制御部と、を有し、
前記制御部は、
前記光源からの光を前記被検査体に照射し、前記検出器により前記被検査体の画像として前記教師用画像及び前記学習用画像を取得し、
前記教師用画像及び前記学習用画像を用いて請求項1~6のいずれか一項に記載のAIモデルの作成方法により前記透過画像を補正するための前記AIモデルを作成する
検査装置。 Light source and
A holding part that holds the object to be inspected,
A detector that acquires an image of the inspected object by detecting light emitted from the light source and reflected by the inspected object or transmitted through the inspected object.
Has a control unit,
The control unit
The light from the light source is applied to the inspected object, and the teacher image and the learning image are acquired as images of the inspected object by the detector.
An inspection device for creating the AI model for correcting the transmitted image by the method for creating an AI model according to any one of claims 1 to 6 using the teacher image and the learning image.
前記検出器は、前記被検査体を透過した前記線源からの放射線を検出して前記被検査体の画像を取得し、
前記制御部は、
前記線源と前記保持部及び前記検出器との相対位置を変化させて、前記線源から放射され前記被検査体を透過した光を前記検出器で取得することにより、前記被検査体の透過画像として前記教師用画像及び前記学習用画像を取得し、
前記教師用画像及び前記学習用画像を用いて請求項1~6のいずれか一項に記載のAIモデルの作成方法により前記透過画像を補正するための前記AIモデルを作成する
検査装置。 The light source is a radiation source that emits radiation.
The detector detects radiation from the radiation source that has passed through the inspected object and acquires an image of the inspected object.
The control unit
By changing the relative positions of the radiation source, the holding portion, and the detector, and acquiring the light emitted from the radiation source and transmitted through the inspected object by the detector, the transmission of the inspected object is obtained. The teacher image and the learning image are acquired as images, and the image is obtained.
An inspection device for creating the AI model for correcting the transmitted image by the method for creating an AI model according to any one of claims 1 to 6 using the teacher image and the learning image.
前記検出器は、前記被検査体を透過した前記線源からの放射線を検出して前記検査体の画像を取得し、
前記制御部は、
前記線源と前記保持部及び前記検出器との相対位置を変化させて、前記線源から放射され前記被検査体を透過した光を前記検出器で取得することにより、前記被検査体の透過画像を取得し、
前記透過画像を再構成して前記被検査体の断面画像である前記教師用画像及び前記学習用画像を生成し、
前記教師用画像及び前記学習用画像を用いて請求項1~6のいずれか一項に記載のAIモデルの作成方法により前記断面画像を補正するための前記AIモデルを作成する
検査装置。 The light source is a radiation source that emits radiation.
The detector detects radiation from the radiation source that has passed through the inspected object and acquires an image of the inspected object.
The control unit
By changing the relative positions of the radiation source, the holding portion, and the detector, and acquiring the light emitted from the radiation source and transmitted through the object to be inspected by the detector, the transmission of the object to be inspected is obtained. Get the image,
The transparent image is reconstructed to generate the teacher image and the learning image which are cross-sectional images of the object to be inspected.
An inspection device for creating an AI model for correcting a cross-sectional image by the method for creating an AI model according to any one of claims 1 to 6 using the teacher image and the learning image.
前記線源と前記保持部及び前記検出器との相対位置を変化させて、前記線源から放射され前記被検査体を透過した光を前記検出器で取得することにより、前記被検査体の透過画像を取得し、
取得した透過画像又は当該透過画像から生成される断面画像に対して前記AIモデルで補正を行う
請求項8または9に記載の検査装置。 The control unit
By changing the relative positions of the radiation source, the holding portion, and the detector, and acquiring the light emitted from the radiation source and transmitted through the object to be inspected by the detector, the transmission of the object to be inspected is obtained. Get the image,
The inspection device according to claim 8 or 9, wherein the acquired transparent image or the cross-sectional image generated from the transparent image is corrected by the AI model.
請求項7~10のいずれか一項に記載の検査装置。 The inspection device according to any one of claims 7 to 10, wherein the correction is performed on the image of the specified region of the inspected object.
前記制御部は、前記ユーザインタフェースにより、前記学習の条件を受け付ける
請求項7~11のいずれか一項に記載の検査装置。 Has a user interface
The inspection device according to any one of claims 7 to 11, wherein the control unit receives the learning condition by the user interface.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020212058A JP2022098590A (en) | 2020-12-22 | 2020-12-22 | Ai model generation method and inspection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020212058A JP2022098590A (en) | 2020-12-22 | 2020-12-22 | Ai model generation method and inspection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022098590A true JP2022098590A (en) | 2022-07-04 |
Family
ID=82261727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020212058A Pending JP2022098590A (en) | 2020-12-22 | 2020-12-22 | Ai model generation method and inspection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022098590A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024210035A1 (en) * | 2023-04-03 | 2024-10-10 | 株式会社サキコーポレーション | Image data correction method, and inspection device |
-
2020
- 2020-12-22 JP JP2020212058A patent/JP2022098590A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024210035A1 (en) * | 2023-04-03 | 2024-10-10 | 株式会社サキコーポレーション | Image data correction method, and inspection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4977201B2 (en) | CONTROL DEVICE, CONTROL METHOD, AND COMPUTER-READABLE MEMORY FOR MULTI X-RAY GENERATOR | |
JP5104956B2 (en) | X-ray inspection apparatus and X-ray inspection method | |
JP5104962B2 (en) | X-ray inspection method and X-ray inspection apparatus | |
JP5559551B2 (en) | Inspection device | |
US11835475B2 (en) | Inspection position identification method, three-dimensional image generation method, and inspection device | |
JPWO2009078415A1 (en) | X-ray inspection apparatus and method | |
JP2011209054A (en) | Radiation inspection device of inspection object, radiation inspection method and program | |
WO2021201211A1 (en) | Inspection device | |
JP6383707B2 (en) | Captured image displacement correction apparatus, captured image displacement correction method, and captured image displacement correction program | |
JP2010127810A (en) | X-ray inspection apparatus and x-ray inspection method | |
WO2021215217A1 (en) | Inspection apparatus | |
JP2022098590A (en) | Ai model generation method and inspection device | |
JP6676023B2 (en) | Inspection position specifying method and inspection device | |
WO2011089658A1 (en) | Method for correcting inspecting apparatus using correcting jig, and inspecting apparatus having correcting jig mounted thereon | |
JP5303911B2 (en) | Method for adjusting imaging control in automatic inspection apparatus using X-ray and automatic inspection apparatus using X-ray | |
JP5884351B2 (en) | X-ray inspection apparatus, control method for X-ray inspection apparatus, program for controlling X-ray inspection apparatus, and computer-readable recording medium storing the program | |
WO2013039032A1 (en) | X-ray examination device, x-ray examination device control method, program for controlling x-ray examination device, and storage medium for storing program | |
JP6179151B2 (en) | X-ray inspection system and X-ray inspection method | |
JP2022141454A (en) | X-ray inspection device and X-ray inspection method | |
JP2011227028A (en) | Tomogram image reconstruction method and x-ray ct apparatus | |
WO2024210035A1 (en) | Image data correction method, and inspection device | |
JP6946516B1 (en) | X-ray inspection equipment, X-ray inspection method and X-ray inspection program | |
JP4728092B2 (en) | X-ray image output apparatus, X-ray image output method, and X-ray image output program | |
JP2024129558A (en) | X-ray inspection device, model generation method, and inspection method | |
WO2024185620A1 (en) | X-ray inspection device and x-ray inspection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240808 |