JP2018072029A - Learning model structuring device, trouble forecasting system, learning model structuring method, and learning model structuring program - Google Patents
Learning model structuring device, trouble forecasting system, learning model structuring method, and learning model structuring program Download PDFInfo
- Publication number
- JP2018072029A JP2018072029A JP2016208812A JP2016208812A JP2018072029A JP 2018072029 A JP2018072029 A JP 2018072029A JP 2016208812 A JP2016208812 A JP 2016208812A JP 2016208812 A JP2016208812 A JP 2016208812A JP 2018072029 A JP2018072029 A JP 2018072029A
- Authority
- JP
- Japan
- Prior art keywords
- learning model
- learning
- failure
- failure prediction
- vibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
Description
本発明は、故障予測用の学習モデルを構築するための、学習モデル構築装置、学習モデル構築方法及び学習モデル構築プログラム、並びに、構築された故障予測用の学習モデルにより故障予測を行うための故障予測システムに関する。 The present invention relates to a learning model construction apparatus, a learning model construction method and a learning model construction program for constructing a learning model for failure prediction, and a failure for performing failure prediction using the constructed learning model for failure prediction. It relates to the prediction system.
プリント基板に半田付けによって電子部品を接合することが一般的に行われている。この場合に、半田付けが適切に行われているかについて品質の確認を行う必要がある。従来、このような品質の確認は、人間による目視検査により行われていた。
しかしながら、目視検査を行う個々人の能力は相違している。また、同じ人間であったとしても疲労等によりその能力は一定ではない。結果として、人間による目視検査では、精度の高い品質の確認は困難であった。
In general, electronic components are joined to a printed circuit board by soldering. In this case, it is necessary to check the quality as to whether the soldering is properly performed. Conventionally, such quality confirmation has been performed by human visual inspection.
However, each person's ability to perform a visual inspection is different. Moreover, even if they are the same person, their ability is not constant due to fatigue or the like. As a result, it has been difficult to check the quality with high precision by human visual inspection.
このような状況を鑑みて、コンピュータを用いて精度の高い品質確認を行うという技術が、例えば、特許文献1や特許文献2に記載されている。
具体的には、特許文献1には、回路基板パッド上の半田ブリックを光学的に計測して、その計測値に基づいて、半田の品質状態を判定する、という技術が開示されている。
また、特許文献2には、入力された波形を統計処理して理想的な波形を決定して採取しておき、この理想的な波形と、判定対象とする回路の波形とに基づいて、異常の発生の有無を検知する波形評価装置が記載されている。例えば、コンデンサの出力波形に基づいて、コンデンサが適切な種類のものでないという異常や、コンデンサが劣化して出力特性が変化しているという異常が発生していることを検知する。
In view of such a situation, for example, Patent Document 1 and Patent Document 2 describe a technique for performing high-quality quality confirmation using a computer.
Specifically, Patent Document 1 discloses a technique of optically measuring a solder brick on a circuit board pad and determining the quality state of the solder based on the measured value.
In Patent Document 2, an input waveform is statistically processed to determine and collect an ideal waveform, and an abnormal waveform is determined based on the ideal waveform and a waveform of a circuit to be determined. Describes a waveform evaluation apparatus for detecting the presence or absence of the occurrence of. For example, based on the output waveform of the capacitor, it is detected that an abnormality that the capacitor is not of an appropriate type or an abnormality that the output characteristic is changed due to deterioration of the capacitor is detected.
上述したように、特許文献1や特許文献2に開示の技術を利用することにより、プリント基板における半田付けの現在の品質状態等を判定することができる。 As described above, the current quality state of soldering on the printed circuit board can be determined by using the techniques disclosed in Patent Document 1 and Patent Document 2.
この点、プリント基板に半田付けされた電子部品等は、製造時に適切に半田付けがなされていたとしても、振動が与えられる環境下で利用されると、半田接合部が継続的な振動による疲労で、予兆なく破断してしまうことがある。
しかしながら、特許文献1や特許文献2に開示の技術はあくまで現時点の品質状態を判定するものに過ぎない。そのため、これらの技術を用いても、今後どの程度の期間が経過すると、上述したような破断等の故障が発生するのかといったことを予測することはできない。また、プリント基板等が実際にどのような環境で使用されるかも考慮されていない。
In this regard, even if electronic parts soldered to a printed circuit board are properly soldered at the time of manufacture, if they are used in an environment where vibration is applied, the solder joints will fatigue due to continuous vibration. Then, it may break without warning.
However, the techniques disclosed in Patent Literature 1 and Patent Literature 2 are merely for determining the current quality state. Therefore, even if these techniques are used, it is impossible to predict how much time will elapse in the future to cause a failure such as a break as described above. Also, it is not considered in what kind of environment the printed circuit board or the like is actually used.
そこで、本発明は、部品が使用される環境を考慮した上で部品の故障予測を行うための、学習モデル構築装置、故障予測システム、学習モデル構築方法及び学習モデル構築プログラムを提供することを目的とする。 Accordingly, an object of the present invention is to provide a learning model construction device, a failure prediction system, a learning model construction method, and a learning model construction program for performing failure prediction of a part in consideration of an environment in which the part is used. And
本発明の学習モデル構築装置(例えば、後述の学習モデル構築装置200)は、所定の部品に対して与えられる振動を表す情報から前記振動の特徴を表す特徴量を抽出する特徴量抽出手段(例えば、後述の特徴量抽出部210)と、前記特徴量と、前記所定の部品が使用開始されてから故障するまでの時間の長さであるラベル(例えば、後述のラベル取得部220が取得するラベル)との組を教師データとして受け付け、該受け付けた教師データによる機械学習を行うことにより、前記所定の部品が使用開始されてから故障するまでの時間の長さを予測するための学習モデルを構築する学習手段(例えば、後述の学習部230)と、を備える学習モデル構築装置。
A learning model construction apparatus (for example, a learning
上記の本発明の学習モデル構築装置においては、前記故障とは、前記振動によって前記所定の部品が破損することにより生じる故障であるとしてもよい。 In the learning model construction apparatus according to the present invention, the failure may be a failure that occurs when the predetermined component is damaged by the vibration.
上記の本発明の学習モデル構築装置においては、前記所定の部品(例えば、後述のBGA部品)は半田付けによる接合部分を有しており、前記所定の部品の破損とは、前記半田付けによる接合部分の破損であるとしてもよい。 In the learning model construction apparatus according to the present invention, the predetermined part (for example, a BGA part described later) has a joining portion by soldering, and the damage of the predetermined part is the joining by soldering. It may be a broken part.
上記の本発明の学習モデル構築装置においては、前記学習手段は、前記特徴量及びラベルに加えて、前記所定の部品の周辺の温度情報を含む教師データを受け付け、該受け付けた温度情報を含む教師データによる機械学習を行うことにより前記学習モデルを構築することとしてもよい。 In the learning model construction apparatus according to the present invention, the learning unit receives teacher data including temperature information around the predetermined part in addition to the feature amount and the label, and the teacher includes the received temperature information. The learning model may be constructed by performing machine learning using data.
上記の本発明の学習モデル構築装置においては、前記特徴量は、前記振動を測定装置で測定することにより得た波形データを、所定のサンプリング周期でサンプリングすることにより得たデータであるとしてもよい。 In the learning model construction device of the present invention, the feature amount may be data obtained by sampling waveform data obtained by measuring the vibration with a measuring device at a predetermined sampling period. .
上記の本発明の学習モデル構築装置においては、前記振動は、工作機械(例えば、後述の工作機械150)の利用に関連して発生する振動であるとしてもよい。
In the learning model construction apparatus of the present invention, the vibration may be a vibration generated in connection with use of a machine tool (for example, a
本発明の故障予測システム(例えば、後述の故障予測システム1000)は、上記の本発明の学習モデル構築装置と、故障予測装置(例えば、後述の故障予測装置300)と備える故障予測システムであって、前記故障予測装置が、故障予測の対象とする前記所定の部品に対して与えられる振動の特徴量と、前記学習モデル構築装置が構築した前記学習モデルとに基づいて、前記故障予測の対象とする前記所定の部品が故障するまでの時間の長さを予測する予測手段(例えば、後述の故障予測部310)と、を備える故障予測システムである。
A failure prediction system of the present invention (for example, failure prediction system 1000 described later) is a failure prediction system provided with the learning model construction device of the present invention and a failure prediction device (for example,
上記の本発明の故障予測システムにおいては、前記故障予測装置を複数(例えば、後述の故障予測装置300−1から故障予測装置300−mまで)備えており、前記複数の故障予測装置のそれぞれが、1つの前記学習モデル構築装置が構築した共通の学習モデルを取得し、前記複数の故障予測装置の予測手段それぞれが、故障予測の対象とする前記所定の部品に対して与えられる振動の特徴量と、前記取得した共通の学習モデルとに基づいて、前記故障予測の対象とする前記所定の部品が故障するまでの時間の長さを予測するようにしてもよい。 In the failure prediction system of the present invention described above, a plurality of failure prediction devices (for example, failure prediction devices 300-1 to 300-m described later) are provided, and each of the plurality of failure prediction devices is provided. A common learning model constructed by one learning model construction device is acquired, and a feature amount of vibration given to each of the predetermined parts to be predicted by each of the prediction means of the plurality of failure prediction devices And based on the acquired common learning model, the length of time until the predetermined part targeted for the failure prediction fails may be predicted.
本発明の学習モデル構築方法は、所定の部品に対して与えられる振動を表す情報から前記振動の特徴を表す特徴量を抽出する特徴量抽出ステップ(例えば、後述の特徴量抽出部210による処理)と、前記特徴量と、前記所定の部品が使用開始されてから故障するまでの時間の長さであるラベル(例えば、後述のラベル取得部220が取得するラベル)との組を教師データとして受け付け、該受け付けた教師データによる機械学習を行うことにより、前記所定の部品が使用開始されてから故障するまでの時間の長さを予測するための学習モデルを構築する学習ステップ(例えば、後述の学習部230による処理)と、を有する学習モデル構築方法である。
In the learning model construction method of the present invention, a feature amount extraction step (for example, processing by a feature
本発明の学習モデル構築プログラムは、学習モデル構築装置(例えば、後述の学習モデル構築装置200)としてコンピュータを機能させるための学習モデル構築プログラムであって、所定の部品に対して与えられる振動を表す情報から前記振動の特徴を表す特徴量を抽出する特徴量抽出手段(例えば、後述の特徴量抽出部210)と、前記特徴量と、前記所定の部品が使用開始されてから故障するまでの時間の長さであるラベル(例えば、後述のラベル取得部220が取得するラベル)との組を教師データとして受け付け、該受け付けた教師データによる機械学習を行うことにより、前記所定の部品が使用開始されてから故障するまでの時間の長さを予測するための学習モデルを構築する学習手段(例えば、後述の学習部230)と、を備える学習モデル構築装置として前記コンピュータを機能させる学習モデル構築プログラムである。
The learning model construction program of the present invention is a learning model construction program for causing a computer to function as a learning model construction device (for example, a learning
本発明によれば、部品が使用される環境を考慮した上で部品の故障予測を行うことが可能となる。 According to the present invention, it is possible to predict a failure of a part in consideration of the environment in which the part is used.
まず、本発明の実施形態の概略を説明する。本実施形態は、工作機械を制御する数値制御装置(CNC:Computer Numerical Control)に使用される所定の部品(例えば、BGA(Ball grid array)部品)の故障予測を行う。 First, an outline of an embodiment of the present invention will be described. In the present embodiment, failure prediction of a predetermined component (for example, a BGA (Ball grid array) component) used in a numerical control device (CNC: Computer Numerical Control) for controlling a machine tool is performed.
数値制御装置に使用されるBGA部品はプリント基板に半田付けされるが、この半田接合部が継続的な振動による疲労で破断することがある。この点、強い振動が長期間加われば破断に至るのであるが、この破断現象と振動波形との相関には、多種多様なケースがある。
そのため、1つのケースだけに基づいて、半田接合部が破断するのかを予測することは容易ではない。例えば、或る1つのケースだけに基づいて、数値制御装置の製品寿命内に、BGA部品が破断するか否かを予測することは容易ではない。
A BGA component used in a numerical control device is soldered to a printed circuit board, but this solder joint may break due to fatigue due to continuous vibration. In this respect, if a strong vibration is applied for a long period of time, it will break, but there are various cases in the correlation between this breaking phenomenon and the vibration waveform.
Therefore, it is not easy to predict whether the solder joint will break based on only one case. For example, based on only one case, it is not easy to predict whether or not a BGA part will break within the product life of the numerical controller.
そこで、本実施形態では、破断に至った装置の振動波形や、破断に至らず故障が発生しなかった装置の振動波形、といった多数のケースの振動波形を用いて機械学習を行う。そして、このような機械学習により構築された学習モデルと、故障判定の対象とする装置の振動波形とに基づいて、どの程度の期間が経過すると破断等の故障が発生するかについて精度良く予測する。
以上が本発明の実施形態の概略である。
Therefore, in this embodiment, machine learning is performed using vibration waveforms of a large number of cases, such as a vibration waveform of a device that has broken and a vibration waveform of a device that has not broken and has not failed. Then, based on the learning model constructed by such machine learning and the vibration waveform of the device that is the target of failure determination, it is accurately predicted how long a failure such as a break will occur after a lapse of time. .
The above is the outline of the embodiment of the present invention.
次に、本実施形態である故障予測システム1000の構成について図1を参照して説明をする。図1に示すように、故障予測システム1000は、N台の数値制御装置100、N台の工作機械150、学習モデル構築装置200、M台の故障予測装置300、及びネットワーク400を備える。なお、N及びMは任意の自然数である。
Next, the configuration of the failure prediction system 1000 according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the failure prediction system 1000 includes N
これらの装置間の接続について説明する。数値制御装置100と工作機械150とは組とされて、通信可能に接続されている。これら数値制御装置100と工作機械150の組は、例えば同じ工場に複数組設置されていてもよいし、それぞれ異なる工場に設置されていてもよい。
Connection between these devices will be described. The
工作機械150と、学習モデル構築装置200と、故障予測装置300とは、それぞれネットワーク400に接続されており、ネットワーク400を介して相互に通信を行うことが可能である。ネットワーク400は、例えば、工場内に構築されたLAN(Local Area Network)や、インターネットや、公衆電話網、あるいはこれらの組み合わせである。ネットワーク400における具体的な通信方式や、有線接続及び無線接続の何れであるか等については特に限定されない。
The
次に、故障予測システム1000に含まれるこれら装置の機能について図2を参照して説明をする。ここで、図2は、各装置に含まれる機能ブロックを表すブロック図である。なお、各数値制御装置100はそれぞれ同等の機能を有しているため、図2では1台のみを図示する。同様に、各工作機械150や各故障予測装置300もそれぞれ同等の機能を有しているため、図2では1台のみを図示する。また、各装置間に存在するネットワーク400については図示を省略する。
Next, functions of these devices included in the failure prediction system 1000 will be described with reference to FIG. Here, FIG. 2 is a block diagram showing functional blocks included in each device. Since each
工作機械150は、被加工品に対して、切断や研磨、折り曲げ等の加工をする一般的な工作機械である。工作機械150は、数値制御装置100による制御に基づいてサーボモータやリニアモータを駆動して加工工具を動作させることにより加工を実行する。
かかる加工に伴い振動が発生するが、かかる振動は工作機械150に据え付けられていたり、あるいは工作機械150の近傍に設置されていたりする数値制御装置100にも伝播する。そして、数値制御装置100に伝播した振動は、上述したように、数値制御装置100内部のBGA部品等の破損の原因となる。
The
Although vibration is generated with such processing, the vibration is also propagated to the
数値制御装置100は、工作機械150から伝播した振動を測定するための測定部110を備える。また、数値制御装置100はそれ以外にも、工作機械150を制御するための機能ブロック、通信を行うための機能ブロック、ユーザからの操作を受け付けるための機能ブロック、といった一般的な機能ブロックを備える。ただし、これらの一般的な機能ブロックについては当業者によく知られているので図示及び説明を省略する。同様に、後述の、学習モデル構築装置200や故障予測装置300においても、通信を行うための機能ブロック、ユーザからの操作を受け付けるための機能ブロック、といった一般的な機能ブロックについては図示及び説明を省略する。
The
測定部110は、工作機械150から伝播する振動を測定するための振動センサである。測定部110は、例えば、それぞれ互いに直交する、X軸、Y軸及びZ軸の三軸方向の加速度を測定可能な三軸加速度センサにより実現することができる。測定部110が測定したX軸、Y軸及びZ軸の三軸方向の加速度は、図中に示すように、後述の特徴量抽出部210に対して「入力データ」として出力される。より詳細には、三軸加速度センサにより取得した、各軸の加速度に相当するアナログ振動波形信号を、アナログ−デジタル変換によりデジタル化したデータが後述の特徴量抽出部210に対して入力データとして出力される。
The
測定部110は、本実施形態のために数値制御装置100に取り付けるようにしてもよい。ただし、数値制御装置のモデルによっては、このような三軸加速度センサが他の用途のために組み込まれている場合がある。このような場合には、その予め組み込まれている三軸加速度センサの測定値を本実施形態においても利用するようにすればよい。また、測定部110は一軸方向の加速度を測定する加速度センサの組み合わせにより実現するようにしてもよい。
The
また、数値制御装置100はユーザからのラベルの入力を受け付ける。ここで、ラベルとは、機械学習において入力に対応すべき正しい出力である。本実施形態では、ラベルは、測定対象とした各数値制御装置100が共通して備える所定の部品(例えば、或る種類のBGA部品)が使用開始されてから、故障するまでの時間の長さである。より具体的には、「使用開始から5年で故障した」、「使用開始から7年で故障した」といった情報や、「使用開始から20年経過したが故障していない」といった情報である。受け付けたラベルは、図中に示すように、後述のラベル取得部220に対して「ラベル」として出力される。
In addition, the
学習モデル構築装置200は、故障が発生した数値制御装置100の振動波形や、故障が発生しなかった数値制御装置100の振動波形、といった多数のケースの振動波形を用いて機械学習を行う装置である。そして、学習モデル構築装置200は、このような機械学習により、故障予測を行うための学習モデルを構築する。
The learning
そのために、学習モデル構築装置200は、特徴量抽出部210、ラベル取得部220、学習部230及び学習モデル記憶部240を備える。
For this purpose, the learning
特徴量抽出部210は、数値制御装置100の測定部110から入力された入力データから特徴量を抽出する部分である。特徴量の抽出の具体的な内容については、図6及び図7を参照して後述する。
The feature
ラベル取得部220は、数値制御装置100からラベル取得し、取得したラベルを学習部230に対して出力する部分である。なお、数値制御装置100からラベルの取得をするのではなく、学習モデル構築装置200の操作受付部(図示を省略する)によりユーザのラベルの入力操作を受け付け、これによりラベルを取得するようにしてもよい。
The
このようにして、測定対象とした数値制御装置100の特徴量と、この測定対象とした数値制御装置100のラベルとが組となり、学習部230に入力される。この特徴量とラベルの組は、機械学習における教師データに相当する。
In this way, the feature quantity of the
ここで、機械学習を行うための教師データは、多数用意されることが望ましい。そこで、例えば顧客先で使用されている、三軸加速度センサが搭載されている数値制御装置100のそれぞれについて、稼働中の何れかの日に特徴量を取得しておく。例えば、数値制御装置100のメンテナンスに赴いた日に振動を測定して特徴量を取得しておく。そして後日、何れかの数値制御装置100の所定の部品が故障したならば、その故障までの時間の長さと、その数値制御装置100について取得しておいた特徴量を組にして新たな教師データを作成するようにするとよい。このようにすれば、顧客先等で通常通りに使用している数値制御装置100により、多くの教師データを作成することができるのでよい。
また、例えば、実験室等にて教師データを作成するようにしてもよい。例えば、実験室で、意図的に振動を加えることにより通常の3倍の頻度で数値制御装置100が振動するようにする。そして、この数値制御装置100の所定の部品が1年で故障したならば、3年で故障したというラベルを組にして教師データを作成するようにするとよい。
Here, it is desirable to prepare a lot of teacher data for performing machine learning. Therefore, for example, for each of the
For example, teacher data may be created in a laboratory or the like. For example, in the laboratory, the
学習部230は、このようにして入力された教師データに基づいて機械学習を行うことにより、学習モデルを構築する。学習部230による機械学習の詳細については、図7を参照して後述する。学習部230が構築した学習モデルは、学習モデル記憶部240及び後述の故障予測部310に対して出力される。
The
学習モデル記憶部240は、学習部230が構築して学習モデル記憶部240に対して出力した学習モデルを記憶する記憶部である。
The learning
故障予測装置300は、本実施形態における故障予測を行う装置である。故障予測装置300は、故障予測部310と故障予測結果出力部320とを備える。
The
故障予測部310は、学習部230から入力された学習モデルと、外部から入力された判定データとを用いて故障予測を行う。そして、故障予測部310は、これらのデータを用いて行った故障予測の結果を、図中に示すように、故障予測結果出力部320に対して「故障予測結果」として出力する。
The
ここで、学習部230から故障予測部310に入力される学習モデルは、上述のように学習部230により構築されたものである。
また、故障予測部310に入力される判定データは、学習部230に入力される特徴量と同等のデータであり、故障予測の対象とする数値制御装置100の測定部110により取得したアナログ波形信号をデジタル化したデータから抽出した特徴量である。
判定データは、学習モデル構築装置200の特徴量抽出部210から入力されるようにしてもよい。また他にも、故障予測装置300内部に特徴量抽出部210と同等の機能ブロックを設けておき、数値制御装置100が出力する入力データから、この特徴量抽出部210と同等の機能ブロックが特徴量を抽出するようにしてもよい。
Here, the learning model input from the
The determination data input to the
The determination data may be input from the feature
故障予測結果出力部320は、故障予測部310から入力された故障予測結果を出力する部分である。出力は、例えば、故障予測結果の表示部への表示であってもよいし、故障予測結果の他の装置への送信であったり、故障予測結果を紙媒体に印刷することであったりしてもよい。
The failure prediction
ユーザは、故障予測結果を参照することにより、今回故障予測の対象とした数値制御装置100が備える所定の部品について予測される故障までの時間の長さを知ることができる。これにより、故障に先立って部品を交換するための、部品の交換時期を決定することが可能となる。また、他にも製品寿命(例えば、20年)の間は部品が故障しない可能性が高いことなどを知ることが可能となる。故障予測結果の具体例については、図7を参照して後述する。
By referring to the failure prediction result, the user can know the length of time until failure predicted for a predetermined component included in the
以上数値制御装置100、学習モデル構築装置200及び故障予測装置300の機能ブロックについて説明した。次に、これらの機能ブロックの実現方法について説明をする。
これらの機能ブロックを実現するために、数値制御装置100、学習モデル構築装置200及び故障予測装置300の何れも、CPU(Central Processing Unit)等の演算処理装置を備える。また、数値制御装置100、学習モデル構築装置200及び故障予測装置300の何れも、各種の制御用プログラムを格納したHDD(Hard Disk Drive)等の補助記憶装置や、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置を備える。
The functional blocks of the
In order to realize these functional blocks, each of the
そして各装置において、演算処理装置が補助記憶装置からアプリケーションやOSを読み込み、読み込んだアプリケーションやOSを主記憶装置に展開させながら、これらのアプリケーションやOSに基づいた演算処理を行なう。また、この演算結果に基づいて、各装置が備える各種のハードウェアを制御する。これにより、本実施形態の機能ブロックは実現される。つまり、本実施形態は、ハードウェアとソフトウェアが協働することにより実現することができる。 In each device, the arithmetic processing device reads an application or OS from the auxiliary storage device, and performs arithmetic processing based on the application or OS while developing the read application or OS in the main storage device. In addition, based on the calculation result, various hardware included in each device is controlled. Thereby, the functional block of this embodiment is implement | achieved. That is, this embodiment can be realized by cooperation of hardware and software.
具体例として、数値制御装置100は、測定部110を備えた一般的な数値制御装置により実現できる。また、学習モデル構築装置200や故障予測装置300はそれぞれ、パーソナルコンピュータにより実現できる。
As a specific example, the
ただし、学習モデル構築装置200については機械学習に伴う演算量が多いため、例えば、パーソナルコンピュータにGPU(Graphics Processing Units)を搭載し、GPGPU(General-Purpose computing on Graphics Processing Units)と呼ばれる技術により、GPUを機械学習に伴う演算処理に利用するようにすると高速処理できるようになるのでよい。更には、より高速な処理を行うために、このようなGPUを搭載したコンピュータを複数台用いてコンピュータ・クラスターを構築し、このコンピュータ・クラスターに含まれる複数のコンピュータにて並列処理を行うようにしてもよい。
However, since the learning
次に、本実施形態における機械学習に関しての基本的な考え方について図3を参照して説明をする。図3の上段には、機械学習時についてのイメージを示す。また、図3の下段には、故障予測時についてのイメージを示す。なお、図3は考え方を示すための図であり、説明を分かりやすくするために非常に模式化した図としている。 Next, a basic concept regarding machine learning in the present embodiment will be described with reference to FIG. The upper part of FIG. 3 shows an image for machine learning. Further, the lower part of FIG. 3 shows an image of failure prediction. FIG. 3 is a diagram for illustrating the concept, and is a very schematic diagram for easy understanding.
本実施形態に含まれる複数の数値制御装置100は、それぞれ異なる工作機械150と接続されている。そして工作機械150はそれぞれ異なる加工を行うので、それぞれが異なる振動をする。そのため、図3の上段に示すように、各数値制御装置100の測定部110が測定する振動は、それぞれ異なった波形となる。また、ラベルとなる故障までの時間の長さも、5年であったり、7年であったり、10年以上正常であったり、とそれぞれことなるものとなる。
そして、上述したように、入力データである波形から抽出した特徴量と、ラベルとの組み合わせを教師データとして機械学習を行い、複数の教師データを用いて学習モデルを構築する。
A plurality of
Then, as described above, machine learning is performed using a combination of a feature amount extracted from a waveform as input data and a label as teacher data, and a learning model is constructed using a plurality of teacher data.
このようにして学習モデルを構築すると、図3の下段に示すように、故障予測の対象とする数値制御装置100の測定部110が測定した波形から抽出した特徴量を判定データとして、構築した学習モデルを利用した故障予測を行うことができる
以上が、本実施形態における機械学習に関しての基本的な考え方である。
When the learning model is constructed in this way, as shown in the lower part of FIG. 3, the constructed learning is performed by using the feature amount extracted from the waveform measured by the
次に、図4のフローチャートを参照して、機械学習時の学習モデル構築装置200の動作について説明をする。
Next, the operation of the learning
まず、学習モデル構築装置200は何れかの数値制御装置100から、入力データとラベルを取得する(ステップS11)。これらのデータの具体的な内容は上述した通りである。
First, the learning
次に学習モデル構築装置200は、ステップS11で取得した入力データから特徴量を抽出する(ステップS12)。この特徴量の抽出について図5及び図6を参照して説明をする。
まず、図5を参照して前提となる入力データについて説明をする。図5には、入力データとして、数値制御装置100の測定部110が測定した、時系列に沿って変化する加速度の波形の例を示す。入力データとする波形は、一定期間測定したものであるが、本説明では、一定期間を一例として9:00〜21:00とする。そして、数値制御装置100は、毎日同じように継続して利用されることを想定する。例えば、数値制御装置100は、毎朝同じような時間に電源が投入され、所定の周期で所定の加工が行われ、毎夕同じような時間に電源が遮断される、ということを繰り返すということを想定する。
なお、毎日同じように繰り返されるのであれば、例えば午前中は第1の加工方法での加工を行い、午後には第2の加工方法での加工を行うというような時間帯によって異なる利用のされかたであってもよい。
Next, the learning
First, input data which is a premise will be described with reference to FIG. FIG. 5 shows an example of an acceleration waveform that changes along the time series measured by the
If it is repeated in the same way every day, for example, the first processing method is used in the morning, and the second processing method is used in the afternoon. It may be how.
図5には、一定期間(一例として、9:00〜21:00)のX軸方向の加速度を示すが、実際の入力データには、他にも、一定期間のY軸方向の加速度と一定期間のZ軸方向の加速度が含まれる。 FIG. 5 shows the acceleration in the X-axis direction for a certain period (from 9:00 to 21:00 as an example), but the actual input data also includes the acceleration in the Y-axis direction for a certain period and a certain constant. The acceleration in the Z-axis direction of the period is included.
ここで、一定期間をこれよりも大幅に短くすることや、三つの軸の加速度を利用するのではなく一つの軸の加速度を利用することも考えられる。本実施形態はこのようにしても機能するが、今回は以下に説明する観点から、このようにはしていない。 Here, it is conceivable to make the fixed period significantly shorter than this, or to use the acceleration of one axis instead of using the acceleration of three axes. Although this embodiment functions in this way, this is not done this time from the viewpoint described below.
上述したように、BGA部品等の部品は、振動が原因となって破断するが、どのような種類の振動が破断の原因となるかをユーザが判断することは困難である。例えば、数値制御装置100による加工時の振動ではなく、数値制御装置100に被加工物を工作機械150にセットする際の、ユーザによる工作機械150の扉の開閉に伴う振動が破断の原因となるかもしれない。そこで、或る一つの加工の開始から終了までといった特定の短い時間を一定期間とするのではなく、例えば12時間等の長い時間を一定期間として機械学習を行うこととしている。
つまり本例では、ユーザによる判断で入力データを選別することなく、なるべく多くの入力データを用いて機械学習を行うことが好ましいとの考えに基づいて、12時間等の長い時間を一定期間として機械学習を行うこととしている。
As described above, parts such as BGA parts break due to vibrations, but it is difficult for the user to determine what kind of vibrations cause the breaks. For example, the vibration caused by the opening / closing of the door of the
In other words, in this example, based on the idea that it is preferable to perform machine learning using as much input data as possible without selecting the input data based on judgment by the user, a long time such as 12 hours is set as a certain period. I am trying to learn.
また同様に、何れの軸の振動が破断の原因となるかをユーザが判断することは困難である。また、もしかすると、複数軸の振動の組み合わせが破断の原因かもしれないが、一つの軸の振動のみを考慮していると、このように複数軸の振動の組み合わせが破断の原因であることをユーザが判断することはできない。
そこで、上述の一定期間の長さの決定の仕方における考え方と同様に、ユーザが何れの軸の振動が重要であるか等を選別するのではなく、三軸全ての振動を利用して機械学習を行うこととしている。これにより、より適切な学習モデルを構築できることが期待できる。
Similarly, it is difficult for the user to determine which shaft vibration causes breakage. Also, the combination of vibrations of multiple axes may be the cause of breakage, but if only the vibration of one axis is considered, the combination of vibrations of multiple axes is the cause of breakage. The user cannot judge.
Therefore, in the same way as the above-described method for determining the length of a certain period of time, the user does not select which axis vibration is important, but uses machine vibrations using all three axis vibrations. Is going to do. Thereby, it can be expected that a more appropriate learning model can be constructed.
次に、図6を参照して、図5に示した入力データからの特徴量の抽出について説明をする。
本実施形態では一例として図6に示すように、入力データに対して、分解能16bit、サンプリング周期1msでサンプリングをすることにより特徴量の抽出をする。
この場合に抽出されるデータ量であるが、一定時間が12時間であり,サンプリング周期1msであり,16bit=2byteであるので、下記の[数式1]に示すように、約82Mbyteが1軸分のデータ量となる。
Next, with reference to FIG. 6, the extraction of the feature amount from the input data shown in FIG. 5 will be described.
In this embodiment, as shown in FIG. 6 as an example, feature amounts are extracted by sampling input data at a resolution of 16 bits and a sampling period of 1 ms.
The amount of data extracted in this case is a fixed time of 12 hours, a sampling period of 1 ms, and 16 bits = 2 bytes. Therefore, as shown in the following [Equation 1], approximately 82 Mbytes is equivalent to one axis. The amount of data.
[数式1]
1000[ms]×60[sec]×60[min]×12[hour]×2[byte]≒82[Mbyte]
[Formula 1]
1000 [ms] × 60 [sec] × 60 [min] × 12 [hour] × 2 [byte] ≈82 [Mbyte]
なお、特徴量は、X軸のみならず、Y軸及びZ軸についても抽出される Note that feature values are extracted not only for the X axis but also for the Y axis and the Z axis.
このようにして、特徴量が抽出されると、抽出された特徴量とラベルとの組が教師データとされ学習部230に対して出力される(ステップS13)。 When the feature amount is extracted in this manner, a set of the extracted feature amount and label is used as teacher data and is output to the learning unit 230 (step S13).
すると、学習部230は、入力された教師データを用いて機械学習を実行する(ステップS14)。この教師データを用いた機械学習について、図7を参照して説明をする
Then, the
図7に示すように、構築途中の学習モデルである学習モデル250は、ニューラルネットワーク251及び重み付け値252を含む。
本実施形態では、パーセプトロンを組み合わせて構成したニューラルネットワークにより、機械学習を行う。具体的には、教師データに含まれる特徴量とラベルの組をニューラルネットワークに与え、ニューラルネットワークの出力がラベルと同じとなるように、各パーセプトロンについての重み付けを変更しながら学習を繰り返す。このようにして、教師データの特徴を学習し、入力から結果を推定するための学習モデルを帰納的に獲得する。
As shown in FIG. 7, a learning model 250 that is a learning model in the middle of construction includes a neural network 251 and a weighting value 252.
In this embodiment, machine learning is performed by a neural network configured by combining perceptrons. Specifically, a set of feature values and labels included in the teacher data is given to the neural network, and learning is repeated while changing the weights for each perceptron so that the output of the neural network is the same as the label. In this manner, the learning model for learning the characteristics of the teacher data and estimating the result from the input is obtained inductively.
より具体的には、図7に示すように、パーセプトロンを三層組み合わせる。そして、ニューラルネットワークの図中の左側から複数の入力Xを入力すると、図中の右側から複数の出力Yが出力される。 More specifically, as shown in FIG. 7, three layers of perceptrons are combined. When a plurality of inputs X are input from the left side of the neural network diagram, a plurality of outputs Y are output from the right side of the diagram.
以下の説明では、ニューラルネットワーク251に含まれる各パーセプトロンを「添字を二文字添えたP」で示す。また、図7では、ニューラルネットワーク251に含まれる各パーセプトロンを「添字を二文字添えた丸付き文字のP」で示す。かかるPの添字の一文字目はそのパーセプトロンの次元数を表し、添字の二文字目はそのパーセプトロンの層数を表す。例えば、P21であれば、二次元目であって一層目のパーセプトロンであることを表す。 In the following description, each perceptron included in the neural network 251 is indicated by “P with two subscripts attached”. In FIG. 7, each perceptron included in the neural network 251 is indicated by “P of a circled character with two subscripts”. The first letter of the P subscript represents the number of dimensions of the perceptron, and the second letter of the subscript represents the number of layers of the perceptron. For example, P 21 represents the second-dimensional and first-layer perceptron.
ここで、ニューラルネットワーク251の一番左側の層(以下、「入力層」と呼ぶ。)の次元数は「i」である。iの値は、任意の自然数である。ただし、今回は、特徴量の抽出時の説明として上述したように、一定時間が12時間であり,サンプリング周期1msであることから、サンプリングデータ数は、下記の[数式2]に示すように、43200000個となる。従って、iの値も43200000となる。なお、1回目のサンプリングをt1に行い、2回目のサンプリングをt2で行い、・・・i回目のサンプリングをtiで行ったものとする。 Here, the number of dimensions of the leftmost layer of the neural network 251 (hereinafter referred to as “input layer”) is “i”. The value of i is an arbitrary natural number. However, since the fixed time is 12 hours and the sampling period is 1 ms as described above for the description of the feature amount extraction, the number of sampling data is as shown in [Equation 2] below. It becomes 432 million. Therefore, the value of i is also 43200000. It is assumed that the first sampling is performed at t1, the second sampling is performed at t2, and the i-th sampling is performed at ti.
[数式2]
1000[ms]×60[sec]×60[min]×12[hour]=43200000[個]
[Formula 2]
1000 [ms] × 60 [sec] × 60 [min] × 12 [hour] = 43200000 [pieces]
また、ニューラルネットワーク251の中央の層(以下、「隠れ層」と呼ぶ。)の次元数は「j」である。jの値は、任意の自然数である。また、jの値は、機械学習の過程において変更するようにしてもよい。 The number of dimensions of the central layer of the neural network 251 (hereinafter referred to as “hidden layer”) is “j”. The value of j is an arbitrary natural number. Further, the value of j may be changed during the machine learning process.
更に、ニューラルネットワーク251の一番右側の層(以下、「出力層」と呼ぶ。)の次元数は「k」である。kは、任意の自然数であるが、今回は、kの値を21とする。その理由について説明をする。本実施形態では一例として、工作機械150の製品寿命を20年と想定する。そして、20年以内のある年数で故障するか、それとも20年以上経過してから故障するかを予測する。そのために、ラベルを、各数値制御装置100が共通して備える所定の部品(例えば、或る種類のBGA部品)が、1年で故障、2年で故障、・・・、20年で故障、20年以上で故障、というように1年単位で作成する。そのため、ラベルの種類は21となる。従って、上述したようにkの値を21とする。
Furthermore, the number of dimensions of the rightmost layer of the neural network 251 (hereinafter referred to as “output layer”) is “k”. k is an arbitrary natural number, but this time, the value of k is 21. The reason will be explained. In this embodiment, as an example, the product life of the
ニューラルネットワーク251では、各パーセプトロンの出力は、次層のすべてのパーセプトロンへ対して出力される。例えば、出力層のP11の出力は、隠れ層のすべてのパーセプトロンであるP21・・・Pj2のそれぞれに対して出力される。同様に、出力層のP21・・・Pn1のそれぞれの出力も、隠れ層のすべてのパーセプトロンであるP21・・・Pj2のそれぞれに対して出力される。ただし、図中では、図の見やすさを考慮して、一部のパーセプトロンと、この一部のパーセプトロンへの出力については図示を省略する。 In the neural network 251, the output of each perceptron is output to all the perceptrons in the next layer. For example, the output of P 11 in the output layer is output to each of P 21 ... P j2 which are all perceptrons in the hidden layer. Similarly, each of the outputs of the P 21 ··· P n1 of the output layer, is output to each of the P 21 ··· P j2 are all perceptron of hidden layer. However, in the figure, in consideration of the visibility of the figure, illustration of some perceptrons and outputs to the some perceptrons are omitted.
重み付け値252は、学習部230が行う機械学習で使用される重み付け値である。学習部230は、ニューラルネットワーク251に含まれる各パーセプトロンの出力する値に対して、出力したパーセプトロンに対応する重み付け値を乗算した上で、次層のすべてのパーセプトロンへ入力する。
つまり、隠れ層や出力層に含まれる各パーセプトロンの出力は、前の層の各パーセプトロンの出力に各パーセプトロンに対応する重み付け値を乗算した値の総和となる。
The weighting value 252 is a weighting value used in machine learning performed by the
That is, the output of each perceptron included in the hidden layer or the output layer is the sum of values obtained by multiplying the output of each perceptron in the previous layer by the weighting value corresponding to each perceptron.
また、図示をしていないがバイアスを各パーセプトロンに入力するようにしてもよい。バイアスは、値「1」に機械学習の過程において修正した重み付け値を乗算した値である。 Although not shown, a bias may be input to each perceptron. The bias is a value obtained by multiplying the value “1” by a weight value corrected in the course of machine learning.
以下の説明及び図中では、重み付けの値を、「添字を二文字添えたW」で表す。また、入力層のパーセプトロンの入力を、「添字を二文字添えたX」で表し、出力層のパーセプトロンの出力を、「添字を二文字添えたY」で表す。
ここで、これら二文字の添字は、同じ二文字の添字が添えられたパーセプトロンに対応する値であることを意味する。例えばW11は、P11に対応する重み付けの値であることを表す。また、例えばX11は、P11に対応する入力であることを表す。更に、例えばY13は、P13に対応する入力であることを表す。
In the following description and drawings, the weighting value is represented by “W with two subscripts added”. Further, the input of the perceptron in the input layer is represented by “X with two subscripts added”, and the output of the perceptron in the output layer is represented by “Y with two subscripts added”.
Here, these two-character subscripts mean values corresponding to perceptrons to which the same two-character subscripts are attached. For example, W 11 represents a weighting value corresponding to P 11 . Further, for example, X 11 represents that the input corresponding to P 11. Further, for example, Y 13 represents an input corresponding to P 13 .
次に、機械学習の実行方法について説明する。まず、教師データとしてi個の特徴量と、ラベルとが学習部230に入力される。一例として、今回は、20年以上で故障というラベルが入力されたものとする。
Next, a method for executing machine learning will be described. First, i feature quantities and labels are input to the
すると、i個の特徴量の値が、入力層のi個のパーセプトロンにそれぞれ1つずつ入力される。そして、入力された特徴量の値に、入力層の各パーセプトロンに対応する重み付け値が乗算された値が、隠れ層の各パーセプトロンに対して入力される。 Then, i feature value values are respectively input to the i perceptrons of the input layer. Then, a value obtained by multiplying the input feature value by a weight value corresponding to each perceptron in the input layer is input to each perceptron in the hidden layer.
次に、隠れ層の各パーセプトロンは、自身に入力された値の総和を出力するので、この出力した値に、隠れ層の各パーセプトロンに対応する重み付け値が乗算された値が、出力層の各パーセプトロンに対して入力される。 Next, each perceptron in the hidden layer outputs the sum of the values input to itself, and the value obtained by multiplying this output value by the weight value corresponding to each perceptron in the hidden layer is each output layer. Input to the perceptron.
更に、出力層の各パーセプトロンは、自身に入力された値の総和を出力する。この出力が図中のY13、Y23・・・Yk3に相当する。これら出力は、1年で故障、2年で故障、・・・、20年で故障、20年以上で故障という分類に相当する。図の例であれば、Y13(1年で故障という分類に相当)の値が0.03であり、Y23(2年で故障という分類に相当)の値が0.05であるのに対して、Yk3(20年以上で故障という分類に相当)の値が0.70であり非常に高い値になっている。
そして、今回のラベルは、20年以上で故障というラベルであることから、適切な出力がなされていることが分かる。
Furthermore, each perceptron in the output layer outputs the sum of the values input to itself. This output corresponds to Y 13 , Y 23 ... Y k3 in the figure. These outputs correspond to the classification of failure in 1 year, failure in 2 years, ... failure in 20 years, failure in 20 years or more. In the example shown in the figure, the value of Y 13 (corresponding to the classification of failure in one year) is 0.03, and the value of Y 23 (corresponding to the classification of failure in two years) is 0.05. On the other hand, the value of Y k3 (corresponding to the classification of failure in 20 years or more) is 0.70, which is a very high value.
And since this label is a label of a failure in 20 years or more, it turns out that the appropriate output is made.
以上の動作はフォワードプロパゲーション(Forward-propagation)と呼ばれる。このようにフォワードプロパゲーションを行った後に、バックプロパゲーション(Back-propagation、誤差逆伝搬法とも呼ばれる。)という手法により各パーセプトロンの出力の誤差を小さくするように重み付け値を調整する。
具体的には、各出力Yとラベルとの誤差を算出し、算出した誤差を小さくするように、隠れ層と出力層との間の重み付け値を修正する。更に、隠れ層と出力層との間の重み付け値を修正量に基づいて、隠れ層と入力層との間の重み付け値を修正する。
The above operation is called forward propagation. After performing forward propagation in this way, the weighting value is adjusted so as to reduce the error in the output of each perceptron by a technique called back-propagation (also called back propagation).
Specifically, the error between each output Y and the label is calculated, and the weighting value between the hidden layer and the output layer is corrected so as to reduce the calculated error. Further, the weighting value between the hidden layer and the output layer is corrected based on the amount of correction of the weighting value between the hidden layer and the output layer.
このようにして、フォワードプロパゲーション及びバックプロパゲーションを行うと、学習部230は、機械学習を終了するか、それとも機械学習を繰り返すかを判定する(ステップS15)。ここで、機械学習を終了させる条件は任意に定めることができる。例えば、各出力Yとラベルとの誤差の値が所定値以下となった場合に機械学習を終了させるようにするとよい。また他にも、予め定めておいた回数だけ機械学習を繰り返した場合に機械学習を終了させるようにするとよい。
Thus, when forward propagation and back propagation are performed, the
何れにしても、条件が満たされておらず、機械学習を未だ終了させないのであれば(ステップS15にてNo)、ステップS11に戻り、新たな教師データ又は同じ教師データを対象として、修正後の各重み付け値に基づいて、再度フォワードプロパゲーション及びバックプロパゲーションを行うことを繰り返す。 In any case, if the condition is not satisfied and the machine learning is not yet finished (No in step S15), the process returns to step S11, and the new teacher data or the same teacher data is targeted. Based on each weighting value, it repeats performing forward propagation and back propagation again.
このように機械学習を繰り返す過程にて、機械学習を終了させる条件が満たされたならば(ステップS15にてYes)、機械学習を終了し、その時点までの機械学習により構築した学習モデルを送信する(ステップS16)。例えば、学習モデルを、ネットワーク400を介して各故障予測装置300に対して送信する。
If the conditions for ending machine learning are satisfied in the process of repeating machine learning in this way (Yes in step S15), machine learning is ended and a learning model constructed by machine learning up to that point is transmitted. (Step S16). For example, the learning model is transmitted to each
また、他にも、学習モデルを学習モデル記憶部240に出力して記憶させる。これのように学習モデル記憶部240に記憶させておけば、新たに設置された故障予測装置300から学習モデルを要求された場合に、学習モデルを送信することができる。また、新たな教師データを取得した場合に、学習モデルに対して更なる機械学習を行うことができる。
In addition, the learning model is output to the learning
以上、学習部230による学習モデルの構築について説明をした。次に、このようにして構築された学習モデルを用いた故障予測について図8のフローチャートを参照して説明をする。
The construction of the learning model by the
故障予測装置300の故障予測部310は、学習モデル構築装置200が送信した学習モデルを受信することにより学習モデルを取得する(ステップS21)。また、特徴量抽出部210や数値制御装置100から判定データを取得する(ステップS22)。判定データの取得方法の詳細は、図2を参照した故障予測部310の説明時に上述した通りである。
The
次に、故障予測部310は、取得した学習モデル及び取得した判定データにより故障予測を行う(ステップS23)。具体的には、取得した判定データに含まれるi個の特徴量の値を、取得した学習モデルのi個のパーセプトロンにそれぞれ1つずつ入力する。これは、図4や図7を参照して説明した機械学習での入力と同様である。
Next, the
その後これも機械学習と同様に、機械学習にて修正された重み付け値が乗算されながら隠れ層及び出力層へと出力され、最終的に各出力層から出力Y(Y13、Y23・・・Yk3)がなされる。かかる出力Yが、故障予測結果である。 Thereafter, similarly to machine learning, the weighting values corrected by machine learning are multiplied and output to the hidden layer and the output layer, and finally output Y (Y 13 , Y 23 ... From each output layer. Y k3 ) is made. Such output Y is a failure prediction result.
次に、故障予測部310は故障予測結果を故障予測結果出力部320に対して出力する。そして、故障予測結果出力部320は入力された故障予測結果を出力する(ステップS24)。出力方法は、図2を参照した故障予測結果出力部320の説明時に上述した通りであり、例えば画面への表示等により行われる。なおこの際に、故障予測結果である出力Y(Y13、Y23・・・Yk3)の全てを出力するようにしてもよい。ただし、これら、Y13、Y23・・・Yk3の内の一部を出力してもよい。例えば、図7に示すようにしてY13、Y23・・・Yk3が出力されたならば、もっとも値が大きいYk3を故障予測結果として出力するようにすればよい。この場合に、Yk3に対応する「20年以上で故障」といったメッセージを出力するようにするとよい。
Next, the
以上説明した本実施形態では、ユーザは、このようにして出力された故障予測結果を参照することにより、故障予測の対象とした数値制御装置100が備える所定の部品(例えば、或る種類のBGA部品)が使用開始されてから故障するまでの時間の長さを予測結果として知ることができる、という効果を奏する。
In the present embodiment described above, the user refers to the failure prediction result output in this way, and thereby a predetermined component (for example, a certain type of BGA) included in the
また、数値制御装置100が工作機械150と接続された状態で測定した振動により予測結果を知ることができるので、数値制御装置100に備えられた所定の部品が実際に利用される環境を考慮した予測結果を知ることができる、という効果も奏する。
In addition, since the prediction result can be obtained from the vibration measured in a state where the
また、一定期間(一例として、9:00〜21:00)の振動を測定するのみで、予測結果を知ることができる、という効果も奏する。 In addition, there is an effect that the prediction result can be known only by measuring the vibration for a certain period (for example, 9: 00 to 21:00).
<変形例>
上述した実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
<Modification>
Although the above-described embodiment is a preferred embodiment of the present invention, the scope of the present invention is not limited only to the above-described embodiment, and various modifications are made without departing from the gist of the present invention. Can be implemented.
例えば、上述した実施形態では、数値制御装置100により測定した振動の波形から、特徴量を抽出していた。そして、この振動の特徴量とラベルとで教師データを作成していた。
For example, in the above-described embodiment, the feature amount is extracted from the vibration waveform measured by the
これに加えて、数値制御装置100が備える所定の部品(例えば、或る種類のBGA部品)が故障する要因となる他の測定値を教師データに含ませるようにしてもよい。例えば、数値制御装置100の内部に温度センサを設置する。そして、この温度センサにより測定した数値制御装置100が備える所定の部品の温度又は所定の部品の周辺の温度を特徴量の一つとして教師データに含ませるようにしてもよい。
In addition to this, another measurement value that causes a failure of a predetermined component (for example, a certain type of BGA component) included in the
この点、温度は振動のように極短時間で大きく変動するものではない。そのため、サンプリング周期1msとするのではなく、例えば、一定期間(一例として、9:00〜21:00)においてサンプリング周期1hourとして、サンプリングした温度の値を特徴量とする。する。また、サンプリング周期1hourでサンプリングした温度の平均値を特徴量とする。 In this respect, the temperature does not fluctuate greatly in a very short time like vibration. Therefore, instead of setting the sampling period to 1 ms, for example, the value of the sampled temperature is set as the feature amount as the sampling period 1 hour in a certain period (for example, 9: 00 to 21:00). To do. Further, an average value of temperatures sampled at a sampling period of 1 hour is defined as a feature amount.
そして、温度に基づいた特徴量の数だけ入力層のパーセプトロンの数を増加させ、この増加した入力層のパーセプトロンに、温度に基づいた特徴量を入力する。これにより、温度も考慮した故障予測を行うことが可能となる。 Then, the number of perceptrons in the input layer is increased by the number of feature quantities based on temperature, and the feature quantity based on temperature is input to the increased perceptron in the input layer. Thereby, it is possible to perform failure prediction in consideration of temperature.
また、温度以外の他の測定値を特徴量に更に含ませるようにしてもよい。例えば、測定した湿度の値を特徴量に更に含ませるようにしてもよい。 Moreover, you may make it further include other measured values other than temperature in a feature-value. For example, the measured humidity value may be further included in the feature amount.
また他の変形例として、図7を参照して説明したニューラルネットワークは三層であったが、これ以上にさらに層を増やすようにしてもよい。すなわち、いわゆるディープラーニング(深層学習とも呼ばれる。)により学習及び故障予測を行うようにしてもよい。また他の変形例として、自己符号化器(Auto encoder)を利用するようにしてもよい。 As another modification, the neural network described with reference to FIG. 7 has three layers. However, the number of layers may be further increased. That is, learning and failure prediction may be performed by so-called deep learning (also called deep learning). As another modification, a self encoder may be used.
更に他の変形例について説明する。特徴量としては、上述のように、三軸加速度センサにより取得した、各軸の加速度に相当するアナログ振動波形信号を、アナログ−デジタル変換によりデジタル化したデータを図6に示すようにしてサンプリングしたものを用いていた。しかし、これ以外の方法を取るようにしてもよい。例えば図6に示すようにしてサンプリングしたデータに対してフーリエ変換を行い、フーリエ変換により得られる周波数スペクトルを特徴量とするようにしてもよい。 Still another modification will be described. As described above, as described above, data obtained by digitizing an analog vibration waveform signal corresponding to the acceleration of each axis obtained by the triaxial acceleration sensor by analog-to-digital conversion was sampled as shown in FIG. I used something. However, other methods may be used. For example, Fourier transform may be performed on the sampled data as shown in FIG. 6, and the frequency spectrum obtained by the Fourier transform may be used as the feature amount.
更に他の変形例として、学習モデル構築装置200と故障予測装置300が一体の装置として実現されるようにしてもよい。
あるいは、学習モデル構築装置200と数値制御装置100が一体の装置として実現されるようにしてもよい。
As yet another modification, the learning
Alternatively, the learning
なお、上記の故障予測システムに含まれる各装置は、ハードウェア、ソフトウェア又はこれらの組み合わせによりそれぞれ実現することができる。また、上記の故障予測システムに含まれる各装置により行なわれる故障予測方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。 Each device included in the failure prediction system can be realized by hardware, software, or a combination thereof. Moreover, the failure prediction method performed by each device included in the failure prediction system can also be realized by hardware, software, or a combination thereof. Here, “realized by software” means realized by a computer reading and executing a program.
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 The program may be stored using various types of non-transitory computer readable media and supplied to the computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD- R, CD-R / W, and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)). The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
100 数値制御装置
110 測定部
150 工作機械
200 学習モデル構築装置
210 特徴量抽出部
220 ラベル取得部
230 学習部
240 学習モデル記憶部
250 学習モデル
251 ニューラルネットワーク
252 重み付け値
300 故障予測装置
310 故障予測部
320 故障予測結果出力部
1000 故障予測システム
DESCRIPTION OF
Claims (10)
前記特徴量と、前記所定の部品が使用開始されてから故障するまでの時間の長さであるラベルとの組を教師データとして受け付け、該受け付けた教師データによる機械学習を行うことにより、前記所定の部品が使用開始されてから故障するまでの時間の長さを予測するための学習モデルを構築する学習手段と、
を備える学習モデル構築装置。 A feature amount extracting means for extracting a feature amount representing the feature of the vibration from information representing the vibration given to a predetermined part;
A set of the feature amount and a label that is a length of time from when the predetermined part is used until it breaks down is received as teacher data, and machine learning is performed using the received teacher data, whereby the predetermined amount is obtained. A learning means for constructing a learning model for predicting the length of time from the start of use of a part to the time of failure;
A learning model construction device comprising:
前記故障予測装置が、
故障予測の対象とする前記所定の部品に対して与えられる振動の特徴量と、前記学習モデル構築装置が構築した前記学習モデルとに基づいて、前記故障予測の対象とする前記所定の部品が故障するまでの時間の長さを予測する予測手段と、
を備える故障予測システム。 A failure prediction system comprising the learning model construction device according to any one of claims 1 to 6 and a failure prediction device,
The failure prediction apparatus is
Based on the feature amount of vibration given to the predetermined part to be subject to failure prediction and the learning model constructed by the learning model construction device, the predetermined part to be subject to failure prediction is a failure. A prediction means for predicting the length of time until
A failure prediction system comprising:
前記複数の故障予測装置のそれぞれが、1つの前記学習モデル構築装置が構築した共通の学習モデルを取得し、
前記複数の故障予測装置の予測手段それぞれが、故障予測の対象とする前記所定の部品に対して与えられる振動の特徴量と、前記取得した共通の学習モデルとに基づいて、前記故障予測の対象とする前記所定の部品が故障するまでの時間の長さを予測する請求項7に記載の故障予測システム。 A plurality of the failure prediction devices,
Each of the plurality of failure prediction devices acquires a common learning model constructed by one learning model construction device,
Each of the prediction means of the plurality of failure prediction apparatuses is based on the feature quantity of vibration given to the predetermined component that is the target of failure prediction, and the failure prediction target based on the acquired common learning model The failure prediction system according to claim 7, wherein a length of time until the predetermined component fails is predicted.
前記特徴量と、前記所定の部品が使用開始されてから故障するまでの時間の長さであるラベルとの組を教師データとして受け付け、該受け付けた教師データによる機械学習を行うことにより、前記所定の部品が使用開始されてから故障するまでの時間の長さを予測するための学習モデルを構築する学習ステップと、
を有する学習モデル構築方法。 A feature amount extraction step for extracting a feature amount representing the feature of the vibration from information representing the vibration applied to a predetermined part;
A set of the feature amount and a label that is a length of time from when the predetermined part is used until it breaks down is received as teacher data, and machine learning is performed using the received teacher data, whereby the predetermined amount is obtained. A learning step for building a learning model for predicting the length of time from the start of use of a part to the time of failure;
A learning model construction method comprising:
所定の部品に対して与えられる振動を表す情報から前記振動の特徴を表す特徴量を抽出する特徴量抽出手段と、
前記特徴量と、前記所定の部品が使用開始されてから故障するまでの時間の長さであるラベルとの組を教師データとして受け付け、該受け付けた教師データによる機械学習を行うことにより、前記所定の部品が使用開始されてから故障するまでの時間の長さを予測するための学習モデルを構築する学習手段と、
を備える学習モデル構築装置として前記コンピュータを機能させる学習モデル構築プログラム。 A learning model construction program for causing a computer to function as a learning model construction device,
A feature amount extracting means for extracting a feature amount representing the feature of the vibration from information representing the vibration given to a predetermined part;
A set of the feature amount and a label that is a length of time from when the predetermined part is used until it breaks down is received as teacher data, and machine learning is performed using the received teacher data, whereby the predetermined amount is obtained. A learning means for constructing a learning model for predicting the length of time from the start of use of a part to the time of failure;
A learning model construction program for causing the computer to function as a learning model construction device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016208812A JP6603192B2 (en) | 2016-10-25 | 2016-10-25 | Learning model construction device, failure prediction system, learning model construction method, and learning model construction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016208812A JP6603192B2 (en) | 2016-10-25 | 2016-10-25 | Learning model construction device, failure prediction system, learning model construction method, and learning model construction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018072029A true JP2018072029A (en) | 2018-05-10 |
JP6603192B2 JP6603192B2 (en) | 2019-11-06 |
Family
ID=62114074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016208812A Active JP6603192B2 (en) | 2016-10-25 | 2016-10-25 | Learning model construction device, failure prediction system, learning model construction method, and learning model construction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6603192B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019220833A1 (en) * | 2018-05-18 | 2019-11-21 | 株式会社島津製作所 | Diagnosis assistance system and diagnosis assistance device |
JP2019219147A (en) * | 2018-06-22 | 2019-12-26 | 中国電力株式会社 | Machine learning device and combustion state determination device |
JP2020009409A (en) * | 2018-07-09 | 2020-01-16 | タタ・コンサルタンシー・サーヴィシズ・リミテッド | Failed and censored instance-based remaining useful life (rul) estimation of entities |
JP2020076750A (en) * | 2018-10-11 | 2020-05-21 | トーヨーカネツソリューションズ株式会社 | Component exchange prediction system and component exchange prediction method of material handling apparatus |
WO2020195024A1 (en) * | 2019-03-28 | 2020-10-01 | パナソニックIpマネジメント株式会社 | Information processing device |
KR102163553B1 (en) * | 2019-11-14 | 2020-10-08 | 주식회사 대주기공 | Tundish Slide Gate Device with Improved Structure |
EP3723011A1 (en) | 2019-04-09 | 2020-10-14 | Nabtesco Corporation | Failure prediction device, failure prediction method, computer program, calculation model learning method, and calculation model generation method |
CN113167832A (en) * | 2018-12-07 | 2021-07-23 | 菲尼克斯电气公司 | Device and method for detecting wear of an electromechanical switching mechanism |
CN113168587A (en) * | 2019-02-28 | 2021-07-23 | 小松产机株式会社 | System and method for collecting learning data |
JP2021140303A (en) * | 2020-03-03 | 2021-09-16 | トヨタ自動車株式会社 | Learning method, learning system and learning program |
US11931905B2 (en) | 2020-03-31 | 2024-03-19 | Seiko Epson Corporation | Failure prediction method and failure prediction apparatus |
JP7460545B2 (en) | 2018-03-28 | 2024-04-02 | エルアンドティー テクノロジー サービシズ リミテッド | System and method for monitoring the health of electromechanical machines and predicting failures |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04106145U (en) * | 1991-02-25 | 1992-09-11 | 村田機械株式会社 | Machine tool failure prevention device |
JPH0572026A (en) * | 1991-09-18 | 1993-03-23 | Hitachi Ltd | Apparatus and method for diagnosing fault of equipment in rotary system |
JPH0696053A (en) * | 1992-09-11 | 1994-04-08 | Fujitsu Ltd | Method for predicting fault of product |
JPH08202444A (en) * | 1995-01-25 | 1996-08-09 | Hitachi Ltd | Method and device for diagnosing abnormality of machine facility |
JP2004234404A (en) * | 2003-01-31 | 2004-08-19 | Minolta Co Ltd | Database system |
JP2006053016A (en) * | 2004-08-11 | 2006-02-23 | Hitachi Ltd | Vehicle failure diagnosis device and vehicle mounted terminal |
JP2010223859A (en) * | 2009-03-25 | 2010-10-07 | Toshiba Corp | Monitoring device and monitoring method |
JP2011209879A (en) * | 2010-03-29 | 2011-10-20 | Toshiba Corp | Apparatus and program for evaluation |
-
2016
- 2016-10-25 JP JP2016208812A patent/JP6603192B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04106145U (en) * | 1991-02-25 | 1992-09-11 | 村田機械株式会社 | Machine tool failure prevention device |
JPH0572026A (en) * | 1991-09-18 | 1993-03-23 | Hitachi Ltd | Apparatus and method for diagnosing fault of equipment in rotary system |
JPH0696053A (en) * | 1992-09-11 | 1994-04-08 | Fujitsu Ltd | Method for predicting fault of product |
JPH08202444A (en) * | 1995-01-25 | 1996-08-09 | Hitachi Ltd | Method and device for diagnosing abnormality of machine facility |
JP2004234404A (en) * | 2003-01-31 | 2004-08-19 | Minolta Co Ltd | Database system |
JP2006053016A (en) * | 2004-08-11 | 2006-02-23 | Hitachi Ltd | Vehicle failure diagnosis device and vehicle mounted terminal |
JP2010223859A (en) * | 2009-03-25 | 2010-10-07 | Toshiba Corp | Monitoring device and monitoring method |
JP2011209879A (en) * | 2010-03-29 | 2011-10-20 | Toshiba Corp | Apparatus and program for evaluation |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7460545B2 (en) | 2018-03-28 | 2024-04-02 | エルアンドティー テクノロジー サービシズ リミテッド | System and method for monitoring the health of electromechanical machines and predicting failures |
JPWO2019220833A1 (en) * | 2018-05-18 | 2021-04-08 | 株式会社島津製作所 | Diagnostic support system, diagnostic support device and diagnostic support method |
JP7115693B2 (en) | 2018-05-18 | 2022-08-09 | 株式会社島津製作所 | Diagnosis support system, diagnosis support device and diagnosis support method |
WO2019220833A1 (en) * | 2018-05-18 | 2019-11-21 | 株式会社島津製作所 | Diagnosis assistance system and diagnosis assistance device |
JP2019219147A (en) * | 2018-06-22 | 2019-12-26 | 中国電力株式会社 | Machine learning device and combustion state determination device |
JP7238279B2 (en) | 2018-06-22 | 2023-03-14 | 中国電力株式会社 | Machine learning device and combustion state determination device |
JP2020009409A (en) * | 2018-07-09 | 2020-01-16 | タタ・コンサルタンシー・サーヴィシズ・リミテッド | Failed and censored instance-based remaining useful life (rul) estimation of entities |
JP2020076750A (en) * | 2018-10-11 | 2020-05-21 | トーヨーカネツソリューションズ株式会社 | Component exchange prediction system and component exchange prediction method of material handling apparatus |
JP7500898B2 (en) | 2018-10-11 | 2024-06-18 | トーヨーカネツ株式会社 | Material handling equipment part replacement prediction system and part replacement prediction method |
CN113167832A (en) * | 2018-12-07 | 2021-07-23 | 菲尼克斯电气公司 | Device and method for detecting wear of an electromechanical switching mechanism |
JP2022512295A (en) * | 2018-12-07 | 2022-02-03 | フェニックス コンタクト ゲーエムベーハー ウント コムパニー カーゲー | Devices and methods for detecting wear of electromechanical switching devices |
CN113168587A (en) * | 2019-02-28 | 2021-07-23 | 小松产机株式会社 | System and method for collecting learning data |
JP7285403B2 (en) | 2019-03-28 | 2023-06-02 | パナソニックIpマネジメント株式会社 | Information processing equipment |
JPWO2020195024A1 (en) * | 2019-03-28 | 2020-10-01 | ||
WO2020195024A1 (en) * | 2019-03-28 | 2020-10-01 | パナソニックIpマネジメント株式会社 | Information processing device |
JP2020173551A (en) * | 2019-04-09 | 2020-10-22 | ナブテスコ株式会社 | Failure prediction device, failure prediction method, computer program, computation model learning method and computation model generation method |
EP3723011A1 (en) | 2019-04-09 | 2020-10-14 | Nabtesco Corporation | Failure prediction device, failure prediction method, computer program, calculation model learning method, and calculation model generation method |
JP7320368B2 (en) | 2019-04-09 | 2023-08-03 | ナブテスコ株式会社 | FAILURE PREDICTION DEVICE, FAILURE PREDICTION METHOD AND COMPUTER PROGRAM |
KR102163553B1 (en) * | 2019-11-14 | 2020-10-08 | 주식회사 대주기공 | Tundish Slide Gate Device with Improved Structure |
JP2021140303A (en) * | 2020-03-03 | 2021-09-16 | トヨタ自動車株式会社 | Learning method, learning system and learning program |
CN113420885A (en) * | 2020-03-03 | 2021-09-21 | 丰田自动车株式会社 | Learning method, learning system, and learning program |
US11931905B2 (en) | 2020-03-31 | 2024-03-19 | Seiko Epson Corporation | Failure prediction method and failure prediction apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP6603192B2 (en) | 2019-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6603192B2 (en) | Learning model construction device, failure prediction system, learning model construction method, and learning model construction program | |
JP6237774B2 (en) | Information processing system, information processing method, and program | |
JP2020534550A (en) | Automatic failure diagnosis / prognosis diagnosis system and method for rotating equipment | |
RU2724075C1 (en) | System and method for determining anomaly source in cyber-physical system having certain characteristics | |
JP6571704B2 (en) | Diagnostic data acquisition system, diagnostic system, and diagnostic data acquisition program | |
CN108073154A (en) | Information processing unit, information processing method and recording medium | |
JP6374466B2 (en) | Sensor interface device, measurement information communication system, measurement information communication method, and measurement information communication program | |
CN108267983B (en) | Off-board device and method for reducing nuisance fault indications from a vehicle | |
JP2006277370A (en) | Method and system for analyzing quality of circuit board | |
CN112272763B (en) | Abnormality detection device, abnormality detection method, and computer-readable storage medium | |
JP2020052740A (en) | Abnormality detection device, abnormality detection method, and program | |
JP6981113B2 (en) | Information processing equipment and information processing method | |
CN112947356A (en) | Control method, control device, mechanical equipment and recording medium | |
US20220088802A1 (en) | Information processing method, information processing apparatus, display method, display apparatus, recording medium, method of manufacturing products, and method of acquiring learning data | |
CN112987682B (en) | Control method, control device and mechanical equipment | |
JP2021092971A (en) | Control method, control unit, machine plant, control program, and recording medium | |
EP4071570A1 (en) | Prediction system, information processing device, and information processing program | |
US20090099821A1 (en) | Model-diversity technique for improved proactive fault monitoring | |
JP5395907B2 (en) | Electronic equipment system | |
US11443266B2 (en) | Machine learning method and machine learning apparatus performing learning relating to work process | |
JP7239377B2 (en) | Machine learning device, failure prediction device, control device, and printed circuit board | |
EP3743816A1 (en) | Maintenance intervention predicting | |
CN111196546A (en) | Detection method, device and system for escalator drive chain abnormity and computer equipment | |
JP2020024565A (en) | Maintenance management device, maintenance management method and program | |
JP2021086220A (en) | Control method, control device, mechanical facility control program and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181024 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190806 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6603192 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |