JP6801312B2 - Laser machining machine and laser machining method - Google Patents
Laser machining machine and laser machining method Download PDFInfo
- Publication number
- JP6801312B2 JP6801312B2 JP2016174399A JP2016174399A JP6801312B2 JP 6801312 B2 JP6801312 B2 JP 6801312B2 JP 2016174399 A JP2016174399 A JP 2016174399A JP 2016174399 A JP2016174399 A JP 2016174399A JP 6801312 B2 JP6801312 B2 JP 6801312B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- unit
- laser
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003754 machining Methods 0.000 title claims description 57
- 238000000034 method Methods 0.000 title description 10
- 230000003287 optical effect Effects 0.000 claims description 82
- 238000003384 imaging method Methods 0.000 claims description 56
- 238000005286 illumination Methods 0.000 claims description 28
- 239000000284 extract Substances 0.000 claims description 19
- 238000003672 processing method Methods 0.000 claims description 10
- 230000001678 irradiating effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 description 26
- 238000005520 cutting process Methods 0.000 description 11
- 238000003860 storage Methods 0.000 description 7
- 239000002184 metal Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000013307 optical fiber Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K26/00—Working by laser beam, e.g. welding, cutting or boring
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K26/00—Working by laser beam, e.g. welding, cutting or boring
- B23K26/02—Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
- B23K26/03—Observing, e.g. monitoring, the workpiece
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Plasma & Fusion (AREA)
- Mechanical Engineering (AREA)
- Laser Beam Processing (AREA)
Description
本発明は、レーザ加工機、及びレーザ加工方法に関する。 The present invention relates to a laser processing machine and a laser processing method.
レーザ加工機は、ワークの切断、溶接などに利用されている。レーザ加工機において、ワークの加工品質を向上させる等の観点で、加工中のワークを撮像した撮像画像から加工状態を把握する技術がある(例えば、下記の特許文献1、2参照)。 Laser processing machines are used for cutting and welding workpieces. In a laser processing machine, from the viewpoint of improving the processing quality of a work, there is a technique for grasping a processing state from an image captured by capturing an image of the work being processed (see, for example, Patent Documents 1 and 2 below).
特許文献1のレーザ加工機は、加工ヘッドに同軸観察型のミクロカメラを備える。特許文献1では、ミクロカメラが撮影した画像を閾値で二値化し、高輝度部分(溶融池)の形状を取得する。また、取得した形状を画像処理部によってパターンマッチングすることで、異常燃焼を判別する。パターンマッチングは、高輝度部分のラインごとの座標を離散的に取得し、これらの座標に基づき重み付け係数で乗算した各々の和を取る。この和をシグモイド関数により変換して1つの値に集約し、閾値以下なら異常燃焼と判断する。また、ニューラルネットワークで機械学習を行うことにより重み付け係数を最適化する。 The laser processing machine of Patent Document 1 includes a coaxial observation type micro camera in the processing head. In Patent Document 1, an image taken by a micro camera is binarized with a threshold value to acquire the shape of a high-luminance portion (melting pond). In addition, abnormal combustion is determined by pattern matching the acquired shape with the image processing unit. In pattern matching, the coordinates of each line of the high-luminance portion are obtained discretely, and the sum of each is multiplied by a weighting coefficient based on these coordinates. This sum is converted by the sigmoid function and aggregated into one value. In addition, the weighting coefficient is optimized by performing machine learning with a neural network.
特許文献2のレーザ加工機は、レーザ加工光軸と同軸のカメラを備える。特許文献2では、撮像画像をモニタで確認し、撮像画像の処理結果をフィードバックすることによってレーザ加工制御を行う。また、モニタの画面上において、カーソル線移動用つまみを操作することによってカーソル線で測定対象の領域を挟みこみ、カーソル線間の距離を測定する。また、撮像画像を二値化し、加工部画像とそれ以外を切り分けることで、手動の寸法測定を自動化する。 The laser processing machine of Patent Document 2 includes a camera coaxial with the laser processing optical axis. In Patent Document 2, laser processing control is performed by confirming the captured image on a monitor and feeding back the processing result of the captured image. Further, on the screen of the monitor, the area to be measured is sandwiched between the cursor lines by operating the cursor line moving knob, and the distance between the cursor lines is measured. In addition, manual dimensional measurement is automated by binarizing the captured image and separating the processed image from the rest.
上述のようにパターンマッチングを行う場合、処理に要する負荷が大きく、例えば処理に長時間を要すること、処理装置のコストが高くなることなどの懸念がある。また、モニタの画面上でカーソル線の位置を設定して寸法を測定する場合、測定の基準に任意性があり、例えば測定対象の領域の選定、加工方向等によって測定結果が変動することで、加工状態を高精度に把握できない懸念がある。 When pattern matching is performed as described above, there is a concern that the load required for processing is large, for example, it takes a long time for processing, and the cost of the processing apparatus increases. In addition, when measuring the dimensions by setting the position of the cursor line on the screen of the monitor, the measurement criteria are arbitrary. For example, the measurement result fluctuates depending on the selection of the area to be measured, the machining direction, etc. There is a concern that the processing state cannot be grasped with high accuracy.
本発明は、上述の事情に鑑みなされたものであり、加工状態を高精度に把握可能であり、かつその処理負荷を低減可能なレーザ加工機、及びレーザ加工方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a laser processing machine and a laser processing method capable of grasping a processing state with high accuracy and reducing the processing load thereof. ..
本発明の一態様に係るレーザ加工機は、加工用のレーザ光を発生するレーザ発振器を備えてよい。レーザ加工機は、レーザ発振器からのレーザ光をワークに照射する加工ヘッドを備えてよい。レーザ加工機は、レーザ光が照射されたワークを、レーザ光の光軸と同軸において撮像する撮像部を備えてよい。レーザ加工機は、ワークの加工状態を示す情報を取得するために、撮像部が撮像した画像から、レーザ光の照射位置を基準として特徴量を抽出する画像処理部を備えてよい。加工ヘッドは、ワークに平行な方向において、ワークと相対移動可能であってよい。画像処理部は、画像において加工ヘッド及びワークが相対移動する相対移動方向が基準方向になるように、レーザ光の照射位置を中心に画像を回転させた回転画像を生成し、該回転画像から特徴量を抽出してよい。 The laser processing machine according to one aspect of the present invention may include a laser oscillator that generates a laser beam for processing . The laser machining machine may include a machining head that irradiates a work with laser light from a laser oscillator . Laser processing machine, a workpiece irradiated with the laser beam, may comprise an imaging unit that captures of the light-axis coaxial odor of the laser beam. Laser machine, in order to obtain the information indicating the machining state of the workpiece from the image capturing section has captured may comprise an image processing unit for extracting a feature value with respect to the irradiation position of the laser beam. The machining head may be movable relative to the work in a direction parallel to the work. The image processing unit generates a rotated image in which the image is rotated around the irradiation position of the laser beam so that the relative movement direction in which the processing head and the work move relative to each other is the reference direction in the image, and features from the rotated image. The amount may be extracted.
本発明の一態様に係るレーザ加工方法は、加工用のレーザ光を発生することを含んでよい。レーザ加工方法は、レーザ光を加工ヘッドからワークに照射することを含んでよい。レーザ加工方法は、レーザ光が照射されたワークを、レーザ光の光軸と同軸において撮像することを含んでよい。レーザ加工方法は、ワークの加工状態を示す情報を取得するために、撮像された画像から、レーザ光の照射位置を基準として特徴量を抽出することを含んでよい。加工ヘッドは、ワークに平行な方向において、ワークと相対移動可能であってよい。レーザ加工方法は、画像において加工ヘッド及びワークが相対移動する相対移動方向が基準方向になるように、レーザ光の照射位置を中心に画像を回転させた回転画像を生成し、該回転画像から特徴量を抽出してよい。 The laser processing method according to one aspect of the present invention may include generating laser light for processing . The laser processing method may include irradiating the work with laser light from the processing head . Laser processing method, a workpiece irradiated with the laser beam may involve imaging of the light-axis coaxial odor of the laser beam. Laser processing method in order to acquire the information indicating the machining state of the workpiece, from the captured image, the feature amount extraction child may Nde including reference to the irradiation position of the laser beam. The machining head may be movable relative to the work in a direction parallel to the work. The laser processing method generates a rotated image in which the image is rotated around the irradiation position of the laser beam so that the relative moving direction in which the processing head and the work move relative to each other in the image is the reference direction, and the rotation image is characterized. The amount may be extracted.
レーザ加工機は、加工ヘッドとワークとの相対移動を制御する制御部を備えてよい。画像処理部は、制御部から相対移動方向を取得し、画像を回転させる角度を決定してよい。画像処理部は、回転画像を二値化し、二値化した後の画像から、レーザ光の照射位置を含む領域を特定し、特定した領域に基づいて特徴量を抽出してもよい。レーザ加工機は、加工ヘッドの内部に設けられるとともに、加工ヘッドの出射口を介してワークに照射するようにレーザ光を案内する照射光学系を備えてよい。レーザ加工機は、出射口を介してワークから加工ヘッド内部に進入する光を撮像部に案内する撮像光学系を備えてよい。撮像光学系及び照射光学系は、少なくとも一部の光学部品を共用していてよい。レーザ加工機は、撮像光学系及び照射光学系が共用している光学部品を光路方向に駆動させる光学系駆動部を備えてよい。レーザ加工機は、撮像光学系と撮像部との相対距離を変更することにより、撮像部のピントを調整するピント調整部を備えてよい。ピント調整部は、光学系駆動部が光学部品を駆動したときに撮像部のピントを調整してよい。 The laser machining machine may include a control unit that controls the relative movement of the machining head and the work . The image processing unit obtains the relative movement direction from the control unit, not good to determine the angle by which the image is rotated. The image processing section, the rotated image is binarized, the image after binarization to identify a region including the irradiation position of the laser beam may be extracted feature amount based on the specified area. The laser machining machine may be provided inside the machining head and may be provided with an irradiation optical system that guides the laser beam so as to irradiate the work through the exit port of the machining head . The laser processing machine may include an imaging optical system that guides the light entering the inside of the processing head from the work through the exit port to the imaging unit . The imaging optical system and the illumination optical system, have good they share at least a part of the optical component. The laser processing machine may include an optical system driving unit that drives an optical component shared by the imaging optical system and the irradiation optical system in the optical path direction . The laser processing machine may include a focus adjusting unit that adjusts the focus of the imaging unit by changing the relative distance between the imaging optical system and the imaging unit . The focus adjusting unit may adjust the focus of the imaging unit when the optical system driving unit drives the optical component .
本発明によれば、レーザ光の照射位置を基準として特徴量を抽出するので、特徴量を客観的に抽出することができ、加工状態を高精度に把握可能であり、かつその処理負荷を低減可能である。 According to the present invention, since the feature amount is extracted based on the irradiation position of the laser beam, the feature amount can be objectively extracted, the processing state can be grasped with high accuracy, and the processing load thereof is reduced. It is possible.
また、上記の画像回転部を備えるレーザ加工機は、レーザ光の照射位置を中心に画像を回転させるので、回転中心の選定に要する負荷を低減することができる。また、回転中心が定まっているので回転中心の選定によって特徴量が変動することを防止することができ、加工状態を高精度に把握可能である。また、画像回転部が制御部から相対移動方向を取得するレーザ加工機は、例えば画像から相対移動方向を取得する場合と比較して、相対移動方向を高精度で取得することができ、かつその処理の負荷を低減することができる。また、制御部から相対移動方向を用いて画像を回転させる角度を決定するので、回転角度を高精度な値に決定することができ、かつその処理の負荷を低減することができる。また、上記の二値化部を備えるレーザ加工機は、二値化した画像から特徴量を抽出するので、その処理の負荷を低減することができる。また、二値化された画像において、明部が離散的になる場合があるが、上記の領域特定部を備えるレーザ加工機は、レーザ光の照射位置を含む領域を特定するので、特徴量を抽出する対象の領域を、高精度かつ低負荷で選択することができる。また、上記の撮像光学系及び照射光学系が少なくとも一部の光学部品を共用しているレーザ加工機は、光学部品を共用化することにより、部品点数の増加を抑制すること、省スペースにすること、低コストにすること等ができる。また、加工レーザの焦点調整等で共用の光学部品を駆動させると、撮像部のピントがずれてしまうが、ピント調整部が調整するため、加工レーザ及び撮像部のいずれについても、焦点を最適化することができる。 Further, since the laser processing machine provided with the above-mentioned image rotating portion rotates the image around the irradiation position of the laser beam, the load required for selecting the rotation center can be reduced. Further, since the center of rotation is fixed, it is possible to prevent the feature amount from fluctuating depending on the selection of the center of rotation, and it is possible to grasp the machining state with high accuracy. Further, the laser processing machine in which the image rotating unit acquires the relative moving direction from the control unit can acquire the relative moving direction with high accuracy as compared with the case where the relative moving direction is acquired from the image, for example. The processing load can be reduced. Further, since the angle at which the image is rotated is determined from the control unit using the relative movement direction, the rotation angle can be determined to a highly accurate value, and the processing load can be reduced. Further, since the laser processing machine provided with the above-mentioned binarization unit extracts the feature amount from the binarized image, the processing load can be reduced. Further, in the binarized image, the bright part may be discrete, but since the laser processing machine provided with the above-mentioned area specifying part specifies the area including the irradiation position of the laser light, the feature amount can be determined. The area to be extracted can be selected with high accuracy and low load. Further, in the laser processing machine in which the above-mentioned imaging optical system and irradiation optical system share at least some optical parts, the increase in the number of parts can be suppressed and the space can be saved by sharing the optical parts. It is possible to reduce the cost. In addition, if the common optical component is driven by the focus adjustment of the processed laser, the focus of the imaging unit will be out of focus, but since the focus adjustment unit adjusts, the focus of both the processed laser and the imaging unit is optimized. can do.
以下、実施形態について図面を参照しながら説明する。以下の各図において、XYZ座標系を用いて図中の方向を説明する。このXYZ座標系においては、鉛直方向をZ方向とし、水平方向をX方向、Y方向とする。また、各方向(例、X方向)において、矢印の向きを+側(例、+X側)と称し、その反対側を−側(例、−X側)と称する。 Hereinafter, embodiments will be described with reference to the drawings. In each of the following figures, the directions in the figure will be described using the XYZ coordinate system. In this XYZ coordinate system, the vertical direction is the Z direction, and the horizontal direction is the X direction and the Y direction. Further, in each direction (eg, X direction), the direction of the arrow is referred to as a + side (eg, + X side), and the opposite side is referred to as a − side (eg, −X side).
[第1実施形態]
図1は、本実施形態に係るレーザ加工機1を示す図である。レーザ加工機1は、加工ヘッド2、ヘッド駆動部3、レーザ発振器4、撮像部5、画像処理部6(画像処理装置)、制御部7、加工状態判定部8、記憶部9、及びピント調整部25を備える。レーザ加工機1は、例えば数値制御(NC)によって、ワークWに対して切断加工を施す。制御部7は、例えば数値制御プログラムに従って、レーザ加工機1の各部を包括的に制御する。
[First Embodiment]
FIG. 1 is a diagram showing a laser processing machine 1 according to the present embodiment. The laser processing machine 1 includes a processing head 2, a head driving unit 3, a laser oscillator 4, an imaging unit 5, an image processing unit 6 (image processing device), a control unit 7, a processing state determination unit 8, a storage unit 9, and focus adjustment. The unit 25 is provided. The laser machine 1 performs cutting on the work W by, for example, numerical control (NC). The control unit 7 comprehensively controls each unit of the laser machining machine 1 according to, for example, a numerical control program.
加工ヘッド2は、ノズル11を有し、加工用のレーザ光(以下、加工用レーザL1という)は、ノズル11に形成される出射口(ノズル11に貫通されている貫通孔)の内側を通して、ワークWに向けて照射される。加工ヘッド2は、X方向、Y方向、及びZ方向の各方向において、ワークWと相対的に移動可能である。ヘッド駆動部3は、移動部12および光学系駆動部13を備える。ヘッド駆動部3は、制御部7に制御され、移動部12によって加工ヘッド2をX方向、Y方向、及びZ方向の各方向に移動させる。また、ヘッド駆動部3は、制御部7に制御され、ノズル11から照射される光の焦点を光学系駆動部13によって調整する。レーザ加工機1は、加工ヘッド2をワークWに対して相対的に移動させながら、加工ヘッド2のノズル11から加工用レーザL1をワークWに照射することで、切断加工を行う。 The processing head 2 has a nozzle 11, and the laser light for processing (hereinafter referred to as the processing laser L1) passes through the inside of the outlet (through hole penetrated through the nozzle 11) formed in the nozzle 11. It is irradiated toward the work W. The processing head 2 is movable relative to the work W in each of the X direction, the Y direction, and the Z direction. The head drive unit 3 includes a moving unit 12 and an optical system drive unit 13. The head drive unit 3 is controlled by the control unit 7, and the moving unit 12 moves the machining head 2 in each of the X, Y, and Z directions. Further, the head drive unit 3 is controlled by the control unit 7, and the focus of the light emitted from the nozzle 11 is adjusted by the optical system drive unit 13. The laser processing machine 1 performs cutting processing by irradiating the work W with the processing laser L1 from the nozzle 11 of the processing head 2 while moving the processing head 2 relative to the work W.
レーザ発振器4は、加工用レーザL1として、例えば赤外レーザ光を発生する。加工ヘッド2の内部には、照射光学系15が設けられ、照射光学系15は、レーザ発振器4で発生した加工用レーザL1を、ワークWに向けて案内することにより、ノズル11の出射口を通してワークWに照射する。照射光学系15は、光ファイバ16、コリメータ17、ビームスプリッタ18、及び集光レンズ19を備える。光ファイバ16は、その一端(光入射側の端部)がレーザ発振器4と接続され、その他端(光出射側の端部)が加工ヘッド2に接続される。レーザ発振器4からの加工用レーザL1は、光ファイバ16を介して加工ヘッド2に導入される。加工ヘッド2は、レーザ発振器4からの加工用レーザL1をワークWに照射する。 The laser oscillator 4 generates, for example, infrared laser light as the processing laser L1. An irradiation optical system 15 is provided inside the processing head 2, and the irradiation optical system 15 guides the processing laser L1 generated by the laser oscillator 4 toward the work W, thereby passing through the outlet of the nozzle 11. Irradiate the work W. The irradiation optical system 15 includes an optical fiber 16, a collimator 17, a beam splitter 18, and a condenser lens 19. One end (the end on the light incident side) of the optical fiber 16 is connected to the laser oscillator 4, and the other end (the end on the light emitting side) is connected to the processing head 2. The processing laser L1 from the laser oscillator 4 is introduced into the processing head 2 via the optical fiber 16. The processing head 2 irradiates the work W with the processing laser L1 from the laser oscillator 4.
コリメータ17は、レーザ発振器4からの加工用レーザL1を平行光に変換するか、もしくは平行光に近づける。ビームスプリッタ18は、コリメータ17を通った加工用レーザL1が入射する位置に配置される。ビームスプリッタ18は、加工用レーザL1の少なくとも一部が反射し、かつワークWからの放出される光(以下、放出光と称する)の少なくとも一部が透過する特性を有する。ビームスプリッタ18は、例えばダイクロイックミラー、ハーフミラーなどである。ビームスプリッタ18は、コリメータ17の光軸17aに対して、約45°の角度で傾斜している。ビームスプリッタ18は、+Z側に向かうにつれて+X側に向かうように傾いている。 The collimator 17 converts the processing laser L1 from the laser oscillator 4 into parallel light or brings it closer to parallel light. The beam splitter 18 is arranged at a position where the processing laser L1 that has passed through the collimator 17 is incident. The beam splitter 18 has a property that at least a part of the processing laser L1 is reflected and at least a part of the light emitted from the work W (hereinafter referred to as emitted light) is transmitted. The beam splitter 18 is, for example, a dichroic mirror, a half mirror, or the like. The beam splitter 18 is tilted at an angle of about 45 ° with respect to the optical axis 17a of the collimator 17. The beam splitter 18 is tilted toward the + X side as it goes toward the + Z side.
集光レンズ19は、ビームスプリッタ18からの加工用レーザL1が入射する位置に配置される。コリメータ17を通った加工用レーザL1は、ビームスプリッタ18で反射して光路がX方向からZ方向(−Z側)へ約90°折れ曲がり、集光レンズ19に入射する。集光レンズ19は、コリメータ17からの加工用レーザL1を集光する。ヘッド駆動部3の光学系駆動部13は、集光レンズ19を、集光レンズ19の光軸19aに沿って移動させることで、照射光学系15のワーク側の焦点を調整可能である。 The condenser lens 19 is arranged at a position where the processing laser L1 from the beam splitter 18 is incident. The processing laser L1 that has passed through the collimator 17 is reflected by the beam splitter 18, and the optical path is bent by about 90 ° from the X direction to the Z direction (−Z side), and is incident on the condenser lens 19. The condenser lens 19 concentrates the processing laser L1 from the collimator 17. The optical system drive unit 13 of the head drive unit 3 can adjust the focus on the work side of the irradiation optical system 15 by moving the condenser lens 19 along the optical axis 19a of the condenser lens 19.
撮像部5は、加工用レーザL1が照射されたワークWを、加工ヘッド2を介して撮像する。撮像部5は、撮像光学系21および撮像素子22を備える。撮像部5は、加工用レーザL1の照射によってワークWの側から加工ヘッド2へ放出される光(放出光)を、撮像光学系21を介して撮像素子22によって検出する。撮像光学系21は、加工ヘッド2のノズル11における光の出射口を介してワークWから加工ヘッド2内部に進入する光を撮像部5に案内する。撮像光学系21は、集光レンズ19、ビームスプリッタ18、ミラー23及び結像レンズ24を備える。撮像光学系21及び照射光学系15は、少なくとも一部の光学部品を共用している。図1において、撮像光学系21は、集光レンズ19、及びビームスプリッタ18が照射光学系15と共用であり、照射光学系15と同軸でワークWを観察することが可能である。 The imaging unit 5 images the work W irradiated with the processing laser L1 via the processing head 2. The image pickup unit 5 includes an image pickup optical system 21 and an image pickup element 22. The image pickup unit 5 detects the light (emitted light) emitted from the work W side to the machining head 2 by the irradiation of the machining laser L1 by the image pickup device 22 via the image pickup optical system 21. The imaging optical system 21 guides the light entering the inside of the processing head 2 from the work W to the imaging unit 5 through the light emitting port in the nozzle 11 of the processing head 2. The imaging optical system 21 includes a condenser lens 19, a beam splitter 18, a mirror 23, and an imaging lens 24. The imaging optical system 21 and the irradiation optical system 15 share at least a part of optical components. In FIG. 1, in the imaging optical system 21, the condenser lens 19 and the beam splitter 18 are shared with the irradiation optical system 15, and the work W can be observed coaxially with the irradiation optical system 15.
ピント調整部25は、制御部7に制御されて、撮像部5のピントを調整する。具体的には、撮像光学系21と撮像素子22との相対距離を撮像光学系の光路方向に変更することにより、撮像素子22のピント(結像レンズ24の結像点と撮像素子との光路方向の距離)を調整する。なお、上記相対距離の変更のために、ピント調整部25は、撮像光学系21と撮像素子22との少なくとも一方を移動させる。よって、ピント調整部25は、撮像光学系21の光学部品(結像レンズ24)のみを移動させてもよいし、撮像素子22のみを移動させてもよいし、あるいは双方を移動させてもよい。 The focus adjusting unit 25 is controlled by the control unit 7 to adjust the focus of the imaging unit 5. Specifically, by changing the relative distance between the image pickup optical system 21 and the image sensor 22 in the optical path direction of the image pickup optical system, the focus of the image pickup element 22 (the optical path between the image pickup point of the image pickup lens 24 and the image sensor). Adjust the distance in the direction). In order to change the relative distance, the focus adjusting unit 25 moves at least one of the image pickup optical system 21 and the image pickup element 22. Therefore, the focus adjusting unit 25 may move only the optical component (imaging lens 24) of the image pickup optical system 21, move only the image pickup element 22, or move both of them. ..
また、光学系駆動部13が集光レンズ19を移動させることで結像レンズ24の結像点が変化しても、ピント調整部25が撮像部5のピントを調整することで加工状態を高精度に把握することが可能である。詳しくは、光学系駆動部13が、加工用レーザL1の照射スポットを調整するために集光レンズ19を移動させる場合、撮像光学系21と照射光学系15とで集光レンズ19が共用されているため、結像レンズ24の結像点が変化してしまう。これに対して、ピント調整部25が、光学系駆動部13によって変更された集光レンズ19の位置に応じて、撮像素子22のピントを調整し、高精度な撮像画像を維持することができる。従って、ワークを高精度にレーザ加工を行いつつ、ワークの加工状態をも高精度に把握できる。 Further, even if the imaging point of the imaging lens 24 changes due to the optical system driving unit 13 moving the condenser lens 19, the focus adjusting unit 25 adjusts the focus of the imaging unit 5 to improve the processing state. It is possible to grasp with accuracy. Specifically, when the optical system drive unit 13 moves the condenser lens 19 in order to adjust the irradiation spot of the processing laser L1, the condenser lens 19 is shared by the imaging optical system 21 and the irradiation optical system 15. Therefore, the imaging point of the imaging lens 24 changes. On the other hand, the focus adjusting unit 25 can adjust the focus of the image pickup element 22 according to the position of the condenser lens 19 changed by the optical system drive unit 13, and can maintain a highly accurate captured image. .. Therefore, it is possible to grasp the machining state of the workpiece with high accuracy while performing laser machining of the workpiece with high accuracy.
ワークWからの放出光は、集光レンズ19を通ってビームスプリッタ18に入射する。放出光は、例えば、加工用レーザL1の照射による溶融金属から放射される光、プラズマに起因する光、及び加工用レーザL1のうちワークWで反射した光を含む。放出光は、その少なくとも一部がビームスプリッタ18を通って、ミラー23に入射する。ミラー23に入射した放出光は、ミラー23で反射して結像レンズ24に入射する。結像レンズ24は、ミラー23からの光を撮像素子22に集光する。結像レンズ24および集光レンズ19は、ワークWの像を撮像素子22に投影する。 The light emitted from the work W passes through the condenser lens 19 and enters the beam splitter 18. The emitted light includes, for example, light emitted from the molten metal due to irradiation by the processing laser L1, light caused by plasma, and light reflected by the work W of the processing laser L1. At least a part of the emitted light passes through the beam splitter 18 and enters the mirror 23. The emitted light incident on the mirror 23 is reflected by the mirror 23 and incident on the imaging lens 24. The imaging lens 24 collects the light from the mirror 23 on the image pickup element 22. The imaging lens 24 and the condenser lens 19 project an image of the work W onto the image sensor 22.
撮像素子22は、例えばCCDあるいはCMOSのイメージセンサであり、撮像光学系21が形成した像を撮像する。撮像素子22には二次元的に配列された複数の画素が設けられ、各画素にはフォトダイオードなどの受光素子が設けられる。撮像素子22は、受光素子に光が入射することにより各画素に発生する電荷(信号)を順に読出し、この信号を増幅、A/D変換して画像形式に配列することで、撮像した画像(以下、撮像画像という)のデジタルデータ(以下、撮像画像データという)を生成する。撮像素子22は、生成した撮像画像データを画像処理部6に出力する。 The image sensor 22 is, for example, a CCD or CMOS image sensor, and captures an image formed by the image pickup optical system 21. The image pickup device 22 is provided with a plurality of pixels arranged two-dimensionally, and each pixel is provided with a light receiving element such as a photodiode. The image sensor 22 reads out the charges (signals) generated in each pixel in order when light is incident on the light receiving element, amplifies the signals, A / D converts them, and arranges them in an image format to obtain an image (image). Digital data (hereinafter referred to as captured image data) of the captured image (hereinafter referred to as captured image) is generated. The image sensor 22 outputs the generated captured image data to the image processing unit 6.
画像処理部6は、撮像素子22と有線または無線によって通信可能に接続される。画像処理部6は、撮像素子22の制御部を兼ねている。画像処理部6は、制御部7と有線または無線によって通信可能に接続され、制御部7から撮像を実行する旨の指令を受け取る。画像処理部6は、制御部7からの指令に応じて、撮像素子22に撮像を実行させる。 The image processing unit 6 is communicably connected to the image sensor 22 by wire or wirelessly. The image processing unit 6 also serves as a control unit for the image sensor 22. The image processing unit 6 is communicably connected to the control unit 7 by wire or wirelessly, and receives a command from the control unit 7 to execute imaging. The image processing unit 6 causes the image sensor 22 to perform imaging in response to a command from the control unit 7.
画像処理部6は、ワークWの加工状態を示す情報を取得するために、撮像部5が撮像した画像から、レーザ光の照射位置を基準として特徴量を抽出する。画像処理部6は、撮像素子22から撮像画像データを取得し、撮像画像データを用いた画像処理によって加工状態に関する情報(特徴量)を生成する。画像処理部6は、撮像部5が撮像した撮像画像の一部または撮像画像を処理した画像の一部から、加工用レーザL1の照射位置を基準として特徴量を抽出する。撮像画像を処理した画像は、例えば、後の図4、図5に示す回転画像Im2、二値化画像Im3、特定画像Im4などである。画像処理部6が行う各処理については、後に図3から図5を参照して、より詳しく説明する。画像処理部6は、撮像画像から抽出した特徴量を制御部7へ供給する。 The image processing unit 6 extracts a feature amount from the image captured by the imaging unit 5 with reference to the irradiation position of the laser beam in order to acquire information indicating the processing state of the work W. The image processing unit 6 acquires the captured image data from the image sensor 22, and generates information (feature amount) regarding the processing state by image processing using the captured image data. The image processing unit 6 extracts a feature amount from a part of the captured image captured by the imaging unit 5 or a part of the processed image of the captured image with reference to the irradiation position of the processing laser L1. The processed image of the captured image is, for example, the rotated image Im2, the binarized image Im3, the specific image Im4, etc. shown in FIGS. 4 and 5 below. Each process performed by the image processing unit 6 will be described in more detail later with reference to FIGS. 3 to 5. The image processing unit 6 supplies the feature amount extracted from the captured image to the control unit 7.
加工状態判定部8は、例えば制御部7に設けられ、画像処理部6から制御部7へ供給される特徴量を取得する。加工状態判定部8は、画像処理部6が抽出した特徴量と閾値とを比較して加工状態を判定する。 The processing state determination unit 8 is provided in, for example, the control unit 7, and acquires the feature amount supplied from the image processing unit 6 to the control unit 7. The processing state determination unit 8 determines the processing state by comparing the feature amount extracted by the image processing unit 6 with the threshold value.
図2は、加工状態の説明図である。図2(A)は、適切な加工状態であり、図2(B)は不適切な加工状態である。ワークWは、加工ヘッド2から加工用レーザL1が入射する部分が溶融し、切断溝が形成される。加工ヘッド2は、ワークWにおいて加工用レーザL1が入射する部分の周囲にアシストガスを吹き出しており、溶融金属Mは、加工ヘッド2から吹き出されるアシストガスによって切断溝から下方へ排出される。 FIG. 2 is an explanatory diagram of a processing state. FIG. 2 (A) shows an appropriate processed state, and FIG. 2 (B) shows an inappropriate processed state. In the work W, the portion where the processing laser L1 is incident from the processing head 2 is melted to form a cutting groove. The machining head 2 blows out an assist gas around a portion of the work W where the machining laser L1 is incident, and the molten metal M is discharged downward from the cutting groove by the assist gas blown out from the machining head 2.
図2(A)のように、加工状態が適切な場合、溶融金属Mは、加工ヘッド2の移動方向に対して後方側へ向かいつつワークWの下方へ流れる。図2(B)のように、加工状態が不適切な場合、溶融金属Mは、図2(A)よりも拡散してワークWの下方へ流れる場合がある。また、ワークW上の溶融金属(図示せず)についても加工状態によって異なり、不適切な加工状態では溶融金属が切断溝からあふれて、ワークW上に広がる場合がある。図2(A)、図2(B)のような加工状態の違いは、画像処理部6が抽出する特徴量に現れる。上記の加工状態判定部8は、特徴量を閾値と比較することで、例えば、加工状態が適切であるか否かを判定する。 As shown in FIG. 2A, when the machining state is appropriate, the molten metal M flows downward of the work W while moving toward the rear side with respect to the moving direction of the machining head 2. As shown in FIG. 2B, when the processing state is inappropriate, the molten metal M may diffuse more than in FIG. 2A and flow below the work W. Further, the molten metal (not shown) on the work W also differs depending on the processing state, and in an inappropriate processing state, the molten metal may overflow from the cutting groove and spread on the work W. The difference in the processing state as shown in FIGS. 2A and 2B appears in the feature amount extracted by the image processing unit 6. The processing state determination unit 8 determines, for example, whether or not the processing state is appropriate by comparing the feature amount with the threshold value.
なお、加工状態判定部8は、特徴量の値に応じて、加工状態が適切であるレベル、あるいは不適切であるレベルを3以上の段階に区別して評価することができる。例えば、加工状態判定部8は、加工状態を「最適」、「適切」、「不適切」の3段階で評価してもよい。また、加工状態判定部8は、加工状態が適切であるレベルを、1、2、3、・・・のように数値化して表してもよい。 The machining state determination unit 8 can evaluate the level at which the machining state is appropriate or the level at which the machining state is inappropriate by classifying it into three or more stages according to the value of the feature amount. For example, the machining state determination unit 8 may evaluate the machining state in three stages of “optimal”, “appropriate”, and “inappropriate”. Further, the machining state determination unit 8 may numerically express the level at which the machining state is appropriate, such as 1, 2, 3, ....
図3は、本実施形態に係る画像処理部(画像処理装置)を示す図である。画像処理部6は、画像回転部31、二値化部32、領域特定部33、及び特徴量抽出部34を備える。以下の説明において、図4および図5を適宜参照する。図4は、画像回転部の処理を示す図である。図5は、二値化部、領域特定部、特徴量抽出部の処理を示す図である。 FIG. 3 is a diagram showing an image processing unit (image processing device) according to the present embodiment. The image processing unit 6 includes an image rotation unit 31, a binarization unit 32, a region identification unit 33, and a feature amount extraction unit 34. In the following description, FIGS. 4 and 5 will be referred to as appropriate. FIG. 4 is a diagram showing processing of the image rotating portion. FIG. 5 is a diagram showing processing of a binarization unit, a region identification unit, and a feature amount extraction unit.
図3に示すように、画像処理部6は、ワークWにおいて加工用レーザL1が照射される位置(照射位置)の情報を用いて画像処理を行う。照射位置は、加工用レーザL1の中心の位置である。撮像画像上の照射位置は、例えば、撮像画像に写っている加工用レーザL1の光強度分布の重心位置である。このような照射位置は、例えば、ワークWと加工ヘッド2とを相対移動させずに、加工ヘッド2から加工用レーザL1を照射させてワークWを溶融させ、この状態で撮像素子22が撮像し、その撮像画像の輝度分布から求めることができる。照射位置の取得は、切断加工の開始時にピアス穴を形成する際に行われてもよい。 As shown in FIG. 3, the image processing unit 6 performs image processing using the information of the position (irradiation position) where the processing laser L1 is irradiated in the work W. The irradiation position is the position of the center of the processing laser L1. The irradiation position on the captured image is, for example, the position of the center of gravity of the light intensity distribution of the processing laser L1 shown in the captured image. In such an irradiation position, for example, the work W is irradiated with the processing laser L1 from the processing head 2 to melt the work W without relatively moving the work W and the processing head 2, and the image sensor 22 takes an image in this state. , Can be obtained from the brightness distribution of the captured image. The acquisition of the irradiation position may be performed when the pierced hole is formed at the start of the cutting process.
また、撮像画像における照射位置は、例えば、図1の撮像素子22の受光面において結像レンズ24(撮像光学系21)の光軸24aと交わる位置としてもよい。また、加工用レーザL1が加工ヘッド2の出射口の中心を通るように設定しておき、撮像画像上の照射位置は、撮像画像において出射口の中心に相当する位置としてもよい。照射位置の情報は、例えば図1の記憶部9に記憶されており、制御部7は、記憶部9から照射位置の情報を読出して、照射位置の情報を画像処理部6に供給する。なお、照射位置の情報は、画像処理部6の記憶部(図示せず)が記憶してもよく、この場合、制御部7は画像処理部6に照射位置の情報を供給しなくてもよい。 Further, the irradiation position in the captured image may be, for example, a position where the light receiving surface of the image sensor 22 in FIG. 1 intersects the optical axis 24a of the imaging lens 24 (imaging optical system 21). Further, the processing laser L1 may be set to pass through the center of the exit port of the processing head 2, and the irradiation position on the captured image may be a position corresponding to the center of the exit port in the captured image. The irradiation position information is stored in, for example, the storage unit 9 of FIG. 1, and the control unit 7 reads the irradiation position information from the storage unit 9 and supplies the irradiation position information to the image processing unit 6. The irradiation position information may be stored in the storage unit (not shown) of the image processing unit 6, and in this case, the control unit 7 does not have to supply the irradiation position information to the image processing unit 6. ..
画像回転部31は、画像において加工ヘッド2及びワークWが相対移動する相対移動方向が基準方向になるように、レーザ光の照射位置を中心に画像を回転させる。相対移動方向は、レーザ加工による切断溝(加工方向)に平行な方向である。制御部7は、加工ヘッド2とワークWとの相対移動を制御しており、相対移動方向の情報を保持している。画像回転部31は、制御部7から相対移動方向の情報を取得し、画像を回転させる角度を決定する。 The image rotation unit 31 rotates the image around the irradiation position of the laser beam so that the relative movement direction in which the processing head 2 and the work W move relative to each other in the image is the reference direction. The relative movement direction is a direction parallel to the cutting groove (machining direction) by laser machining. The control unit 7 controls the relative movement between the machining head 2 and the work W, and holds information on the relative movement direction. The image rotation unit 31 acquires information on the relative movement direction from the control unit 7 and determines the angle at which the image is rotated.
図4において、基準方向は、予め定められた方向であり、例えば撮像画像Im1において画素が配列される方向(例、水平走査方向、垂直走査方向)である。また、相対移動方向、及び撮像画像Im1における照射位置LPは、制御部7から供給される情報(図3参照)によって既知である。画像回転部31は、基準方向の単位ベクトルと、相対移動方向の単位ベクトルとの内積を算出し、基準方向と相対移動方向とのなす角度(回転角)を算出する。画像回転部31は、上記の算出結果を、撮像画像Im1を回転させる角度(回転角)として決定する。そして、画像回転部31は、照射位置LPを中心として撮像画像Im1を上記の回転角だけ回転させることによって、図4(B)に示すような回転画像Im2を生成する。 In FIG. 4, the reference direction is a predetermined direction, for example, a direction in which pixels are arranged in the captured image Im1 (eg, horizontal scanning direction, vertical scanning direction). Further, the relative movement direction and the irradiation position LP in the captured image Im1 are known from the information supplied from the control unit 7 (see FIG. 3). The image rotation unit 31 calculates the inner product of the unit vector in the reference direction and the unit vector in the relative movement direction, and calculates the angle (rotation angle) formed by the reference direction and the relative movement direction. The image rotation unit 31 determines the above calculation result as an angle (rotation angle) for rotating the captured image Im1. Then, the image rotating unit 31 generates the rotated image Im2 as shown in FIG. 4 (B) by rotating the captured image Im1 about the irradiation position LP by the above rotation angle.
図3に示すように、画像回転部31は、回転画像のデータを二値化部32に供給する。二値化部32は、画像を二値化し、その処理結果として二値化した画像(以下、二値化画像という)のデータを領域特定部33に供給する。二値化部32は、回転画像の各画素値を閾値と比較し、画素値が閾値以上の画素を「白」で表し、画素値が閾値未満の画素を「黒」で表して、二値化画像を生成する。このような二値化画像は、島状の「白」の領域が離散的に表れる場合がある。 As shown in FIG. 3, the image rotation unit 31 supplies the data of the rotated image to the binarization unit 32. The binarization unit 32 binarizes the image, and supplies the data of the binarized image (hereinafter, referred to as the binarized image) as the processing result to the area identification unit 33. The binarization unit 32 compares each pixel value of the rotated image with a threshold value, represents pixels having a pixel value greater than or equal to the threshold value in "white", and represents pixels having a pixel value less than the threshold value in "black", and binarizes. Generate a converted image. In such a binary image, island-shaped "white" regions may appear discretely.
例えば、図5(A)の二値化画像Im3は、島状の領域AR1〜AR4を含む。二値化画像Im3において、領域AR1〜AR4はそれぞれ「白」の領域であり、その他の領域は「黒」である。図3の領域特定部33は、二値化画像Im3から加工用レーザの照射位置LPを含む領域AR1(以下、特定領域という)を特定(選択、決定、抽出)する。領域特定部33は、特定領域AR1の情報を特徴量抽出部34に供給する。特定領域AR1の情報は、例えば、特定領域AR1以外の領域AR2〜AR4を「黒」で置き換えた特定画像のデータである。 For example, the binarized image Im3 of FIG. 5 (A) includes island-shaped regions AR1 to AR4. In the binarized image Im3, the regions AR1 to AR4 are "white" regions, and the other regions are "black". The region specifying unit 33 of FIG. 3 identifies (selects, determines, extracts) the region AR1 (hereinafter referred to as a specific region) including the irradiation position LP of the processing laser from the binarized image Im3. The area specifying unit 33 supplies the information of the specific area AR1 to the feature amount extraction unit 34. The information of the specific area AR1 is, for example, data of a specific image in which the areas AR2 to AR4 other than the specific area AR1 are replaced with “black”.
図3の特徴量抽出部34は、領域特定部33が特定した領域に基づいて、特徴量を抽出する。例えば、特徴量抽出部34は、特定領域AR1から特徴量を抽出する。すなわち、特定領域AR1は、特徴量を抽出する対象の領域である。特徴量抽出部34は、特徴量として、例えば図5(B)に示す特定領域AR1の寸法を抽出する。図5において、「幅方向」は、「相対移動方向」に垂直な方向であり、切断溝の幅方向に相当する。特徴量抽出部34は、特定画像Im4において、例えば、加工用レーザの照射位置LPを基準(例、原点)とする相対移動方向および幅方向の座標系を設定し、特定領域AR1の各種寸法を抽出する。 The feature amount extraction unit 34 of FIG. 3 extracts the feature amount based on the region specified by the region identification unit 33. For example, the feature amount extraction unit 34 extracts the feature amount from the specific region AR1. That is, the specific region AR1 is a region for which the feature amount is extracted. The feature amount extraction unit 34 extracts, for example, the dimensions of the specific region AR1 shown in FIG. 5B as the feature amount. In FIG. 5, the "width direction" is a direction perpendicular to the "relative movement direction" and corresponds to the width direction of the cutting groove. In the specific image Im4, the feature amount extraction unit 34 sets, for example, a coordinate system in the relative movement direction and the width direction based on the irradiation position LP of the processing laser (eg, the origin), and sets various dimensions of the specific area AR1. Extract.
例えば、特徴量抽出部34は、相対移動方向における特定領域AR1の寸法X1(長さ)、幅方向における特定領域AR1の寸法Y1(幅)を抽出する。また、特徴量抽出部34は、相対移動方向において、照射位置LPに対して前方側の部分(ヘッド部HD)の寸法X2(長さ)を抽出する。また、特徴量抽出部34は、ヘッド部HDの幅方向における寸法Y2を抽出する。また、特徴量抽出部34は、相対移動方向において、特定領域AR1の寸法X1からヘッド部HDの寸法X2を差し引いた寸法を抽出する。 For example, the feature amount extraction unit 34 extracts the dimension X1 (length) of the specific region AR1 in the relative movement direction and the dimension Y1 (width) of the specific region AR1 in the width direction. Further, the feature amount extraction unit 34 extracts the dimension X2 (length) of the portion (head portion HD) on the front side with respect to the irradiation position LP in the relative movement direction. Further, the feature amount extraction unit 34 extracts the dimension Y2 in the width direction of the head unit HD. Further, the feature amount extraction unit 34 extracts the dimension obtained by subtracting the dimension X2 of the head portion HD from the dimension X1 of the specific region AR1 in the relative movement direction.
また、特徴量抽出部34は、上記のような特定領域AR1の各部の寸法を用いた四則演算を行い、その算出結果を特徴量とする。四則演算は、和、差、積、及び商のうち1つのみを行う演算でもよいし、和、差、積、及び商のうち2つ以上を行う演算でもよい。例えば、特徴量抽出部34は、特定領域AR1の各部について相対移動方向の寸法と幅方向の寸法との和、差、積、及び商の少なくとも一つを特徴量として算出する。また、特徴量抽出部34は、特定領域AR1の各部の寸法を変数とする関数で特徴量を算出してもよい。この関数は、線形の関数でもよいし、非線形の関数でもよい。 Further, the feature amount extraction unit 34 performs four arithmetic operations using the dimensions of each part of the specific region AR1 as described above, and uses the calculation result as the feature amount. The four arithmetic operations may be an operation that performs only one of sum, difference, product, and quotient, or an operation that performs two or more of sum, difference, product, and quotient. For example, the feature amount extraction unit 34 calculates at least one of the sum, difference, product, and quotient of the dimension in the relative movement direction and the dimension in the width direction for each part of the specific region AR1 as the feature amount. Further, the feature amount extraction unit 34 may calculate the feature amount by a function in which the dimensions of each part of the specific area AR1 are used as variables. This function may be a linear function or a non-linear function.
なお、特徴量抽出部34は、二値化された画像から領域特定部33が特定した領域から特徴量を抽出する代わりに、二値化される前の画像から特徴量を抽出してもよい。例えば、特徴量抽出部34は、二値化された画像(図4(B)参照)から領域特定部33が特定した領域に基づいて、特徴量を抽出すべき画像の範囲を決定し、二値化される前の画像において上記の決定した範囲から特徴量を抽出してもよい。 Note that the feature amount extraction unit 34 may extract the feature amount from the image before binarization instead of extracting the feature amount from the region specified by the region identification unit 33 from the binarized image. .. For example, the feature amount extraction unit 34 determines the range of the image from which the feature amount should be extracted based on the region specified by the region identification unit 33 from the binarized image (see FIG. 4B). The feature amount may be extracted from the above-determined range in the image before being digitized.
図3に示すように、特徴量抽出部34は、抽出した特徴量を制御部7に供給し、加工状態判定部8は、この特徴量と閾値との比較によって、加工状態を判定する。上記の特徴量の項目は、例えば図2に示した適切な加工状態と不適切な加工状態とを区別できるように、適宜選択され、1つでもよいし、2つ以上でもよい。なお、レーザ加工機1は、加工状態判定部8を備えなくてもよい。例えば、特徴量抽出部34は、特徴量を表示部などに表示し、オペレータは、表示された特徴量を参酌して加工状態を判定してもよい。また、レーザ加工機1は、加工状態の良否を判定する代わりに、特徴量を用いたフィードバック制御などによって加工条件を調整してもよい。 As shown in FIG. 3, the feature amount extraction unit 34 supplies the extracted feature amount to the control unit 7, and the machining state determination unit 8 determines the machining state by comparing the feature amount with the threshold value. The above-mentioned feature quantity items are appropriately selected so as to distinguish between the appropriate processing state and the inappropriate processing state shown in FIG. 2, for example, and may be one or two or more. The laser processing machine 1 does not have to include the processing state determination unit 8. For example, the feature amount extraction unit 34 may display the feature amount on a display unit or the like, and the operator may determine the processing state in consideration of the displayed feature amount. Further, the laser machining machine 1 may adjust the machining conditions by feedback control using the feature amount or the like instead of determining the quality of the machining state.
次に、上述のレーザ加工機1の構成に基づき、実施形態に係るレーザ加工方法を説明する。図6は、実施形態に係るレーザ加工方法を示すフローチャートである。ここでは、レーザ加工方法のうち加工状態の判定方法を中心に説明する。また、レーザ加工機1の各部については図1を適宜参照し、画像処理部6の各部については図3を適宜参照する。 Next, the laser processing method according to the embodiment will be described based on the configuration of the laser processing machine 1 described above. FIG. 6 is a flowchart showing a laser machining method according to the embodiment. Here, among the laser machining methods, the method of determining the machining state will be mainly described. Further, FIG. 1 is appropriately referred to for each part of the laser processing machine 1, and FIG. 3 is appropriately referred to for each part of the image processing unit 6.
図1の撮像部5は、加工ヘッド2から加工用レーザL1が照射された状態で、加工ヘッド2を介してワークWを撮像する。ステップS1において、画像処理部6は、撮像部5による撮像画像に対する前処理として、画像の切り出し、ノイズ除去を行う。例えば、画像処理部6は、撮像画像の中央部を切り出し、切り出した画像に対してメディアンフィルタ等によりノイズ除去を行って、処理後の画像を後の画像処理に用いる。 The imaging unit 5 of FIG. 1 images the work W via the processing head 2 in a state where the processing laser L1 is irradiated from the processing head 2. In step S1, the image processing unit 6 cuts out an image and removes noise as preprocessing for the image captured by the image capturing unit 5. For example, the image processing unit 6 cuts out the central portion of the captured image, removes noise from the cut out image with a median filter or the like, and uses the processed image for later image processing.
ステップS2において、画像処理部6は、加工用レーザL1の照射位置および相対移動方向を取得する。例えば、画像処理部6は、制御部7から照射位置の情報および相対移動方向の情報を取得する。ステップS3において、画像処理部6の画像回転部31は、ステップS2で取得した照射位置の情報および相対移動方向の情報を用いて、照射位置を中心に画像を回転させる(図4参照)。ステップS4において、画像処理部6の二値化部32は、画像回転部31が処理した画像を二値化する(図5(A)参照)。ステップS5において、画像処理部6の領域特定部33は、ステップS2で取得した照射位置の情報を用いて、二値化画像Im3(図5(A)参照)から照射位置LPが含まれる特定領域AR1を特定する。 In step S2, the image processing unit 6 acquires the irradiation position and the relative moving direction of the processing laser L1. For example, the image processing unit 6 acquires the irradiation position information and the relative movement direction information from the control unit 7. In step S3, the image rotation unit 31 of the image processing unit 6 rotates the image around the irradiation position using the irradiation position information and the relative movement direction information acquired in step S2 (see FIG. 4). In step S4, the binarization unit 32 of the image processing unit 6 binarizes the image processed by the image rotation unit 31 (see FIG. 5A). In step S5, the area specifying unit 33 of the image processing unit 6 uses the irradiation position information acquired in step S2 to identify the specific area including the irradiation position LP from the binarized image Im3 (see FIG. 5A). Identify AR1.
ステップS6において、特徴量抽出部34は、領域特定部33が特定した特定領域AR1から特徴量を抽出する(図5(B)参照)。例えば、特徴量抽出部34は、特定領域AR1の各部の寸法を抽出し、抽出した寸法を用いた四則演算を行う。特徴量抽出部34は、特定領域AR1の各部の寸法、および上記の四則演算の結果の少なくとも一部を特徴量とする。ステップS7において、制御部7の加工状態判定部8は、ステップS6において特徴量抽出部34が抽出した特徴量を閾値と比較して、加工状態を判定する。制御部7は、例えば、ステップS7の判定結果を用いて加工条件を調整し、調整された加工条件でレーザ加工を実行させる。なお、制御部7は、ステップS7の判定結果を用いたフィードバック制御(加工条件の調整)を行わなくてもよく、例えば、上記のステップS1からステップS7の処理は、検査として行われてもよい。 In step S6, the feature amount extraction unit 34 extracts the feature amount from the specific area AR1 specified by the area identification unit 33 (see FIG. 5B). For example, the feature amount extraction unit 34 extracts the dimensions of each portion of the specific region AR1 and performs four arithmetic operations using the extracted dimensions. The feature amount extraction unit 34 uses at least a part of the dimensions of each part of the specific region AR1 and the result of the above four arithmetic operations as the feature amount. In step S7, the machining state determination unit 8 of the control unit 7 compares the feature amount extracted by the feature amount extraction unit 34 in step S6 with the threshold value to determine the machining state. For example, the control unit 7 adjusts the machining conditions using the determination result of step S7, and causes the laser machining to be executed under the adjusted machining conditions. Note that the control unit 7 does not have to perform feedback control (adjustment of machining conditions) using the determination result of step S7. For example, the processing of steps S1 to S7 may be performed as an inspection. ..
なお、ステップS3からステップS5の処理の順番は、適宜変更可能である。例えば、二値化部32は、回転させる前の画像に対して二値化処理を行い、画像回転部31は、二値化された画像を回転させてもよい。また、領域特定部33は、回転前の二値化された画像から領域を特定し、画像回転部31は、特定された領域を回転させてもよい。また、画像処理部6は、画像回転部31を備えなくてもよく、特徴量抽出部34は、回転されていない画像から特徴量を抽出してもよい。また、画像処理部6は、二値化部32を備えなくてもよいし、領域特定部33を備えなくてもよい。また、本実施形態において、加工状態判定部8は、制御部7に設けられるが、制御部7以外の部分(例、画像処理部6)に設けられてもよい。 The order of processing from step S3 to step S5 can be changed as appropriate. For example, the binarization unit 32 may perform a binarization process on the image before rotation, and the image rotation unit 31 may rotate the binarized image. Further, the area specifying unit 33 may specify a region from the binarized image before rotation, and the image rotating unit 31 may rotate the specified region. Further, the image processing unit 6 does not have to include the image rotation unit 31, and the feature amount extraction unit 34 may extract the feature amount from the unrotated image. Further, the image processing unit 6 may not include the binarization unit 32 or the area identification unit 33. Further, in the present embodiment, the processing state determination unit 8 is provided in the control unit 7, but may be provided in a portion other than the control unit 7 (eg, the image processing unit 6).
[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態において、レーザ加工機1は、照明光源41、及び照明光学系42を備える。照明光源41は、照明光L2として、加工用レーザL1と波長が異なる光(例、可視光)を発する。照明光学系42は、加工ヘッド2の内部に設けられる。照明光学系42は、照明光源41で発生した照明光L2を、ワークWに向けて案内することにより、ノズル11の出射口を通してワークWに照射する。
[Second Embodiment]
The second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. In the present embodiment, the laser processing machine 1 includes an illumination light source 41 and an illumination optical system 42. The illumination light source 41 emits light having a wavelength different from that of the processing laser L1 (eg, visible light) as the illumination light L2. The illumination optical system 42 is provided inside the processing head 2. The illumination optical system 42 irradiates the work W through the outlet of the nozzle 11 by guiding the illumination light L2 generated by the illumination light source 41 toward the work W.
照明光学系42は、コリメータ43、ハーフミラー44、ビームスプリッタ18、及び集光レンズ19を備える。ここでは、照明光学系42は、ビームスプリッタ18および集光レンズ19が照射光学系15と共用であり、集光レンズ19を介して落射照明する。照明光学系42の光出射側の光軸は、照射光学系15の出射側の光軸と同軸であり、照明光L2は、加工用レーザL1と同じ光路(加工用レーザL1と共通する一部の光路)を通ってワークWに照射される。 The illumination optical system 42 includes a collimator 43, a half mirror 44, a beam splitter 18, and a condenser lens 19. Here, in the illumination optical system 42, the beam splitter 18 and the condenser lens 19 are shared with the irradiation optical system 15, and epi-illumination is performed via the condenser lens 19. The optical axis on the light emitting side of the illumination optical system 42 is coaxial with the optical axis on the emission side of the irradiation optical system 15, and the illumination light L2 has the same optical path as the processing laser L1 (a part common to the processing laser L1). The work W is irradiated through the optical path).
コリメータ43は、照明光源41から照明光L2が入射する位置に配置される。コリメータ43は、照明光源41からの照明光L2を平行光に変換するか、もしくは平行光に近づける。照明光学系42の焦点をワークの対象位置に合わせる場合、コリメータ43は、例えば、その焦点が照明光源41の位置と一致するように配置される。ハーフミラー44は、コリメータ43を通った照明光L2が入射する位置に配置される。ハーフミラー44は、照明光L2の一部が反射し、一部が透過する特性を有する反射透過部材である。 The collimator 43 is arranged at a position where the illumination light L2 is incident from the illumination light source 41. The collimator 43 converts the illumination light L2 from the illumination light source 41 into parallel light or brings it closer to parallel light. When the focus of the illumination optical system 42 is adjusted to the target position of the work, the collimator 43 is arranged so that the focus coincides with the position of the illumination light source 41, for example. The half mirror 44 is arranged at a position where the illumination light L2 passing through the collimator 43 is incident. The half mirror 44 is a reflection / transmission member having a characteristic that a part of the illumination light L2 is reflected and a part of the illumination light L2 is transmitted.
コリメータ43を通った照明光L2の一部は、ハーフミラー44で反射して光路がX方向からZ方向(−Z側)へ約90°折れ曲がり、ビームスプリッタ18に入射する。集光レンズ19は、ビームスプリッタ18から照明光L2が入射する位置に配置される。集光レンズ19は、ビームスプリッタ18からの加工用レーザL1を集光する。照明光L2の照射によってワークWから放射される放出光は、図1で説明した加工用レーザL1に起因する放出光と同じ光路を通って、撮像素子22に像を結ぶ。撮像部5は、照明光L2がワークWに照射された状態でワークWを撮像する。画像処理部6は、この撮像画像に対してエッジ検出等の画像処理を行うことによって切断溝のエッジを検出し、切断溝に沿う方向を相対移動方向として特定する。本実施形態において、画像処理部6の画像回転部31(図3参照)は、制御部7から相対移動方向の情報を受ける代わりに、上記の処理で特定された相対移動方向を用いて画像を回転させる。 A part of the illumination light L2 that has passed through the collimator 43 is reflected by the half mirror 44, the optical path is bent by about 90 ° from the X direction to the Z direction (−Z side), and is incident on the beam splitter 18. The condenser lens 19 is arranged at a position where the illumination light L2 is incident from the beam splitter 18. The condensing lens 19 condenses the processing laser L1 from the beam splitter 18. The emitted light emitted from the work W by the irradiation of the illumination light L2 passes through the same optical path as the emitted light caused by the processing laser L1 described with reference to FIG. 1, and forms an image on the image pickup device 22. The imaging unit 5 images the work W in a state where the illumination light L2 is irradiated on the work W. The image processing unit 6 detects the edge of the cutting groove by performing image processing such as edge detection on the captured image, and specifies the direction along the cutting groove as the relative movement direction. In the present embodiment, the image rotation unit 31 (see FIG. 3) of the image processing unit 6 uses the relative movement direction specified in the above process to display an image instead of receiving information on the relative movement direction from the control unit 7. Rotate.
上述の実施形態において、制御部7は、例えばコンピュータシステムを含む。制御部7は、記憶部9に記憶されているプログラムを読み出し、このプログラムに従って各種の処理を実行する。このプログラムは、加工用のレーザ光を発生するレーザ発振器と、レーザ発振器からのレーザ光を、加工ヘッドを介してワークに照射する加工ヘッドと、レーザ光が照射されたワークを、加工ヘッドを介して撮像する撮像部と、を備えるレーザ加工機のコンピュータに実装される画像処理プログラムであって、コンピュータに、ワークの加工状態を示す情報を取得するために、撮像部が撮像した画像から、レーザ光の照射位置を基準として特徴量を抽出することを実行させる。この画像処理プログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。 In the above-described embodiment, the control unit 7 includes, for example, a computer system. The control unit 7 reads a program stored in the storage unit 9 and executes various processes according to this program. In this program, a laser oscillator that generates a laser beam for machining, a machining head that irradiates a workpiece with a laser beam from the laser oscillator via a machining head, and a workpiece irradiated with a laser beam are subjected to a machining head. An image processing program implemented in a computer of a laser processing machine including an imaging unit that captures a laser image, and a laser is used from an image captured by the imaging unit in order to acquire information indicating the processing state of the workpiece on the computer. The feature amount is extracted based on the light irradiation position. The image processing program may be recorded and provided on a computer-readable storage medium.
上述の実施形態において、画像処理装置(画像処理部6)は、加工用のレーザ光を発生するレーザ発振器と、レーザ発振器からのレーザ光をワークに照射する加工ヘッドと、レーザ光が照射されたワークを、加工ヘッドを介して撮像する撮像部と、を備えるレーザ加工機の画像処理装置であって、ワークの加工状態を示す情報を取得するために、撮像部が撮像した画像から、レーザ光の照射位置を基準として特徴量を抽出する。 In the above-described embodiment, the image processing apparatus (image processing unit 6) is irradiated with a laser oscillator that generates a laser beam for processing, a processing head that irradiates a work with a laser beam from the laser oscillator, and a laser beam. An image processing device of a laser processing machine including an imaging unit that captures an image of a work via a processing head, and a laser beam from an image captured by the imaging unit in order to acquire information indicating a processing state of the work. The feature amount is extracted based on the irradiation position of.
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments can be combined as appropriate. In addition, to the extent permitted by law, the disclosure of all documents cited in the above-mentioned embodiments and the like shall be incorporated as part of the description in the main text.
1・・・レーザ加工機
2・・・加工ヘッド
4・・・レーザ発振器
5・・・撮像部
6・・・画像処理部
7・・・制御部
8・・・加工状態判定部
9・・・記憶部
W・・・ワーク
31・・・画像回転部
32・・・二値化部
33・・・領域特定部
34・・・特徴量抽出部
X1、X2、Y1、Y2・・・寸法(特徴量)
1 ... Laser processing machine 2 ... Processing head 4 ... Laser oscillator 5 ... Imaging unit 6 ... Image processing unit 7 ... Control unit 8 ... Processing state determination unit 9 ... Storage unit W ... Work 31 ... Image rotation unit 32 ... Binarization unit 33 ... Area identification unit 34 ... Feature quantity extraction unit X1, X2, Y1, Y2 ... Dimensions (features) amount)
Claims (6)
前記レーザ発振器からのレーザ光をワークに照射する加工ヘッドと、
前記レーザ光が照射された前記ワークを、前記レーザ光の光軸と同軸において撮像する撮像部と、
前記ワークの加工状態を示す情報を取得するために、前記撮像部が撮像した画像から、前記レーザ光の照射位置を基準として特徴量を抽出する画像処理部と、を備え、
前記加工ヘッドは、前記ワークに平行な方向において、前記ワークと相対移動可能であり、
前記画像処理部は、前記画像において前記加工ヘッド及び前記ワークが相対移動する相対移動方向が基準方向になるように、前記レーザ光の照射位置を中心に前記画像を回転させた回転画像を生成し、該回転画像から前記特徴量を抽出する、レーザ加工機。 A laser oscillator that generates laser light for processing,
A processing head that irradiates the work with laser light from the laser oscillator,
The work which the laser light is irradiated, and an imaging unit that captures of the light-axis coaxial odor of the laser beam,
In order to acquire information indicating the processing state of the work, an image processing unit that extracts a feature amount from an image captured by the imaging unit based on an irradiation position of the laser beam is provided .
The machining head can move relative to the work in a direction parallel to the work.
The image processing unit generates a rotated image obtained by rotating the image around the irradiation position of the laser beam so that the relative movement direction in which the processing head and the work move relative to each other in the image becomes a reference direction. , A laser processing machine that extracts the feature amount from the rotated image .
前記画像処理部は、前記制御部から前記相対移動方向を取得し、前記画像を回転させる角度を決定する、請求項1に記載のレーザ加工機。 A control unit that controls the relative movement of the machining head and the work is provided.
The laser processing machine according to claim 1 , wherein the image processing unit acquires the relative movement direction from the control unit and determines an angle for rotating the image.
前記回転画像を二値化し、
前記二値化した後の画像から、前記レーザ光の照射位置を含む領域を特定し、
前記特定した領域に基づいて前記特徴量を抽出する、請求項1又は請求項2に記載のレーザ加工機。 The image processing unit
Binarizing the rotated image,
From image after previous SL binarized to identify an area including the irradiation position of the laser beam,
The extracted pre-Symbol feature amount based on the specified realm, laser processing machine according to claim 1 or claim 2.
前記出射口を介して前記ワークから加工ヘッド内部に進入する光を前記撮像部に案内する撮像光学系と、を備え、
前記撮像光学系及び前記照射光学系は、少なくとも一部の光学部品を共用している、請求項1から請求項3のいずれか一項に記載のレーザ加工機。 An irradiation optical system provided inside the processing head and guiding the laser beam so as to irradiate the work through the exit port of the processing head.
An imaging optical system that guides light entering the processing head from the work through the exit port to the imaging unit is provided.
The laser processing machine according to any one of claims 1 to 3 , wherein the imaging optical system and the irradiation optical system share at least a part of optical components.
前記撮像光学系と前記撮像部との相対距離を変更することにより、前記撮像部のピントを調整するピント調整部と、を備え、
前記ピント調整部は、前記光学系駆動部が前記光学部品を駆動したときに前記撮像部のピントを調整する、請求項4に記載のレーザ加工機。 An optical system driving unit for driving the optical path direction said optical component the imaging optical system and said illumination optical system is shared,
A focus adjusting unit for adjusting the focus of the imaging unit by changing the relative distance between the imaging optical system and the imaging unit is provided.
The laser processing machine according to claim 4 , wherein the focus adjusting unit adjusts the focus of the imaging unit when the optical system driving unit drives the optical component.
前記レーザ光を加工ヘッドからワークに照射することと、
前記レーザ光が照射された前記ワークを、前記レーザ光の光軸と同軸において撮像することと、
前記ワークの加工状態を示す情報を取得するために、前記撮像された画像から、前記レーザ光の照射位置を基準として特徴量を抽出することと、を含み、
前記加工ヘッドは、前記ワークに平行な方向において、前記ワークと相対移動可能であり、
前記画像において前記加工ヘッド及び前記ワークが相対移動する相対移動方向が基準方向になるように、前記レーザ光の照射位置を中心に前記画像を回転させた回転画像を生成し、該回転画像から前記特徴量を抽出する、レーザ加工方法。 To generate laser light for processing and
Irradiating the work with the laser beam from the processing head
And that the work which the laser light is irradiated to the imaging of the light-axis coaxial odor of the laser beam,
To obtain the information indicating the processing status of the work, from the captured image, it is seen including a and extracting a feature quantity based on the irradiation position of the laser beam,
The machining head can move relative to the work in a direction parallel to the work.
In the image, a rotation image is generated by rotating the image around the irradiation position of the laser beam so that the relative movement direction in which the processing head and the work move relative to each other becomes the reference direction, and the rotation image is used as the reference direction. A laser processing method that extracts feature quantities .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016174399A JP6801312B2 (en) | 2016-09-07 | 2016-09-07 | Laser machining machine and laser machining method |
CN201710761098.6A CN107803585B (en) | 2016-09-07 | 2017-08-30 | Laser processing machine and laser processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016174399A JP6801312B2 (en) | 2016-09-07 | 2016-09-07 | Laser machining machine and laser machining method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018039028A JP2018039028A (en) | 2018-03-15 |
JP6801312B2 true JP6801312B2 (en) | 2020-12-16 |
Family
ID=61569820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016174399A Active JP6801312B2 (en) | 2016-09-07 | 2016-09-07 | Laser machining machine and laser machining method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6801312B2 (en) |
CN (1) | CN107803585B (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6767416B2 (en) * | 2018-03-26 | 2020-10-14 | ファナック株式会社 | Machining condition adjustment device and machine learning device |
US12048970B2 (en) * | 2018-06-22 | 2024-07-30 | Mitsubishi Electric Corporation | Laser processing apparatus |
JP6792880B2 (en) * | 2018-09-18 | 2020-12-02 | 前田工業株式会社 | Laser welding condition judgment device |
CN109175704A (en) * | 2018-11-13 | 2019-01-11 | 岗春激光科技(江苏)有限公司 | Laser welding head mechanism and laser soldering device |
JP6810973B2 (en) * | 2019-03-28 | 2021-01-13 | 前田工業株式会社 | Laser welding control device |
JP7357463B2 (en) | 2019-05-08 | 2023-10-06 | 株式会社東芝 | Judgment device, judgment system, welding system, judgment method, program, and storage medium |
JP6824355B1 (en) * | 2019-09-25 | 2021-02-03 | 株式会社アマダウエルドテック | Laser machining monitoring method and laser machining monitoring device |
JP7356381B2 (en) * | 2020-03-11 | 2023-10-04 | 株式会社アマダ | Laser processing machine and processing method |
WO2021214899A1 (en) * | 2020-04-22 | 2021-10-28 | 株式会社ニコン | Processing system |
JP6775791B1 (en) * | 2020-05-27 | 2020-10-28 | 上野精機株式会社 | Parts delivery device |
CN111901569A (en) * | 2020-08-11 | 2020-11-06 | 上海柏楚电子科技股份有限公司 | Monitoring processing method, device, equipment and medium for dynamically tracking cutting head |
CN118010725A (en) * | 2024-02-05 | 2024-05-10 | 深圳市九州智焊未来科技有限公司 | Detection system and method for laser welding process |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01138083A (en) * | 1987-11-25 | 1989-05-30 | Amada Co Ltd | Detector for reflected and returned beam of carbon dioxide gas laser beam machine |
JPH05220590A (en) * | 1992-02-10 | 1993-08-31 | Nitto Denko Corp | Etching method |
JP3162254B2 (en) * | 1995-01-17 | 2001-04-25 | 三菱電機株式会社 | Laser processing equipment |
JPH10180685A (en) * | 1996-12-25 | 1998-07-07 | Murata Mach Ltd | Cutter control circuit and facsimile device |
JP2000061671A (en) * | 1998-08-19 | 2000-02-29 | Kubota Corp | Laser beam machining method and device therefor |
JP2009095876A (en) * | 2007-10-18 | 2009-05-07 | Olympus Corp | Laser machining apparatus, laser machining method, and laser machining program |
JP5749623B2 (en) * | 2011-10-04 | 2015-07-15 | 小池酸素工業株式会社 | Plasma cutting monitoring device |
JP6064519B2 (en) * | 2012-10-29 | 2017-01-25 | 三星ダイヤモンド工業株式会社 | Laser processing apparatus and processing condition setting method for patterned substrate |
JPWO2014171245A1 (en) * | 2013-04-17 | 2017-02-23 | 村田機械株式会社 | Laser processing machine and laser processing method |
JP6299111B2 (en) * | 2013-08-28 | 2018-03-28 | オムロン株式会社 | Laser processing equipment |
DE102013218421A1 (en) * | 2013-09-13 | 2015-04-02 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Apparatus and method for monitoring, in particular for controlling, a cutting process |
CN103817431A (en) * | 2013-12-11 | 2014-05-28 | 乐清市佳速激光有限公司 | Laser real-time feedback control system and control method thereof |
JP6220718B2 (en) * | 2014-03-31 | 2017-10-25 | 日立オートモティブシステムズ株式会社 | Laser welding quality determination method and laser welding quality determination device |
-
2016
- 2016-09-07 JP JP2016174399A patent/JP6801312B2/en active Active
-
2017
- 2017-08-30 CN CN201710761098.6A patent/CN107803585B/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107803585B (en) | 2021-06-25 |
CN107803585A (en) | 2018-03-16 |
JP2018039028A (en) | 2018-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6801312B2 (en) | Laser machining machine and laser machining method | |
Dworkin et al. | Image processing for machine vision measurement of hot formed parts | |
JP5875630B2 (en) | Method and apparatus for identifying incomplete cuts | |
CN107000118B (en) | Method and apparatus for determining the material type and/or surface characteristics of workpiece | |
US9536295B2 (en) | Three-dimensional image processing apparatus, three-dimensional image processing method, three-dimensional image processing program, computer-readable recording medium, and recording device | |
US20180200957A1 (en) | Monitoring A Process For Powder-Bed Based Additive Manufacturing | |
US10373302B2 (en) | Three-dimensional image processing apparatus, three-dimensional image processing method, three-dimensional image processing program, computer-readable recording medium, and recording device | |
JP7407828B2 (en) | A laser processing system for processing a workpiece with a laser beam and a method for controlling the laser processing system | |
CN109952171A (en) | Method and apparatus for determining and adjusting the focal position of processing beam | |
JP2013123743A (en) | Device and method for detecting welding position of laser welding | |
KR101875980B1 (en) | High speed acquisition vision system and method for selectively viewing object features | |
CN105993033B (en) | Method for recognizing an edge contour of an opening formed in a machining head and machining machine | |
Pacher et al. | Estimation of melt pool size by complementary use of external illumination and process emission in coaxial monitoring of selective laser melting | |
JP7390498B2 (en) | Quality control of laser processing processes using machine learning | |
US20240100626A1 (en) | Laser working system for performing a working process on a workpiece by means of a laser beam and method for monitoring a working process on a workpiece by means of a laser beam | |
JP2005014027A (en) | Weld zone image processing method, welding management system, feedback system for welding machine, and butt line detection system | |
CN116615302A (en) | Method for detecting the suspension position of a support bar and flat machine tool | |
CN111479648B (en) | Device, method and use for monitoring beam processing of a workpiece | |
JP2008087056A (en) | System and method for determining laser welding quality | |
JP2012141233A (en) | Detector | |
US20230241710A1 (en) | Method for Analyzing a Workpiece Surface for a Laser Machining Process and Analysis Device for Analyzing a Workpiece Surface | |
JP5615660B2 (en) | Machine tool with observation point focusing support function | |
Vykhtar et al. | Optical monitoring sensor system for laser-based directed energy deposition | |
Hildinger et al. | Characterization of optical emissions during laser metal deposition for the implementation of an in-process powder stream monitoring | |
Saeed | Vision-based sensing of the welding process: a survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6801312 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |