EP3298549A1 - Method and system for predicting the realization of a predetermined state of an object - Google Patents
Method and system for predicting the realization of a predetermined state of an objectInfo
- Publication number
- EP3298549A1 EP3298549A1 EP16729196.2A EP16729196A EP3298549A1 EP 3298549 A1 EP3298549 A1 EP 3298549A1 EP 16729196 A EP16729196 A EP 16729196A EP 3298549 A1 EP3298549 A1 EP 3298549A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- classifier
- state
- data
- database
- relating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Definitions
- the present invention relates to a method for predicting the realization of a state of an object, before said state is realized. It also relates to a system implementing such a method.
- the field of the invention is the field of predicting the occurrence of a predetermined event concerning an object, and in particular of a failure of an appliance or an appliance member before said breakdown occurs. 'takes place.
- Another object of the present invention is to provide a method and a system for predicting a state of a more flexible object.
- Another object of the present invention is to provide a method and a system for predicting a state of an object providing more accurate results.
- At least one of these objectives is achieved by a method for predicting the realization of at least one state that an object can take, before said state is realized, from a database, called a source, storing, for at least one, in particular several, occurrence (s) passed (s) of said at least one state, values of at least one, in particular of several, variable (s) relative to said object, determined before said , or each of said occurrence (s) of said state, said method comprising the following steps:
- the prediction method makes it possible to generate and test several prediction classifiers from the data relating to said object, and in particular to past occurrences of said object. state, and choose the classifier providing the best prediction result.
- the method according to the invention is more flexible because it makes it possible to adapt to any type of object for the detection of any state whose past occurrences are known, by proposing a learning of each classifier directly according to the object data.
- the method according to the invention can also be used for all types of objects, with few modifications, since it makes it possible to automatically select the most suitable classifier for each of several classifiers using different algorithms.
- the method according to the invention makes it possible to make a more precise prediction of the realization of a state of an object because the prediction is performed with the classifier which, among several classifiers tested, provides the best prediction result.
- each of the first and second parts of the source database comprises at least one occurrence, in particular a multitude of occurrences, passed for the at least one state of the object.
- classifier an algorithm or a family of statistical ranking algorithm. This concept is well known to those skilled in the art as such in the field of statistical classification. It is therefore not necessary to detail this notion further.
- learning is meant the process of determining, in particular by iteration, the coefficients of a classifier based on known input data and known output data. This concept is also well known to those skilled in the art as such in the field of statistical classification. It is not necessary to detail more this notion. It is possible to find more details about learning on the page whose address is: http: //en.wikipedia.orq/wiki/Reference: Machine Learninq ' )
- the object for which the prediction is made can be called the target object to avoid red tape.
- the method according to the invention may further comprise at least one iteration of a step, called verification step, to check in time that the best classifier remains the one which, among all the classifiers generated, provides the best prediction performance.
- said verification step comprising the learning and selection steps performed on said updated database at the time of said iteration of said verification step.
- This verification step is performed after one or more prediction steps.
- the method according to the invention makes it possible to monitor in time that the classifier selected at the beginning of the process remains the one that provides the best prediction result.
- the prediction method according to the invention is not based on learning a classifier learned once and for all, but continues to learn as and when.
- This functionality makes it possible to take into account the evolution in time of the target object, such as for example the aging of the target object, a modification of the use of the target object, etc.
- the verification step can be triggered by an operator and / or automatically at a predetermined frequency, for example depending on the iteration number of the detection phase.
- the step of selecting the best classifier may comprise:
- a piece of data referred to as precision, relating to an error rate when detecting past occurrences of at least one state
- the selection of the best classifier being carried out as a function of said precision data and / or of said recall data.
- the method according to the invention makes it possible to better take into account the results of each classifier with a view to choosing the classifier providing the best prediction result.
- the method according to the invention may further comprise, after the automatic learning step, a so-called cross-validation step, testing at least one, in particular each, classifier, on a third part of said base of source data.
- this third part of the source database comprises at least one occurrence, in particular a multitude of occurrences, passed (s) for the at least one state of the object.
- This step of cross-validation also called cross validation, validates the learning of a classifier made on the first part of the source database, on a third part, different from the first part.
- This step of cross validation makes it possible more particularly to test the stability of each classifier obtained following the learning step.
- cross-validation techniques that can be used for a classifier, such as for example the technique known as “testing and validation”, the technique known as “holdout method”, the technique known as “k- fold cross-validation "or the technique known as” leave-one-out cross-validation ".
- the first part of the source database, used for learning, can be called learning part. It can be 60% or more of the source database.
- the second part of the database, different from the first part, can be called part of selection.
- the second part of the database can correspond to 20% of the source database.
- the third part of the database can be called part of test or cross-validation or cross-validation.
- the second part of the database can correspond to 20% of the source database.
- the first part and the third part of the source database may be different for each classifier.
- the second part of the source database, used during the selection step is identical for each classifier.
- the generation step may advantageously comprise, for at least one classifier, a step of adjusting / entering a parameter relating to the architecture of said classifier.
- Such a parameter can be or include a maximum / minimum number of nodes in the classifier, a maximum / minimum depth of said classifier, a number of trees in the classifier, and so on. etc.
- the method according to the invention can comprise, before the learning step, a step of generating said source database by reconciliation of at least one database comprising values of at least one variable relating to said auditory database. object, with at least one other database including data relating to at least one past occurrence of at least one state.
- Such a step is necessary when the data relating to the target object is stored on different databases.
- the data measured by the sensors arranged on the elevator are stored in a first database and the data relating to the past failures of the elevator are stored in another database.
- it is necessary to construct a single database comprising both the data measured by the sensors and the past occurrences of a failure of the elevator.
- the data relating to said object are organized in the form of a chronological frieze or time line ("timeline" in English).
- the source database comprises for the target object, in particular for each target object, a timeline on which are indicated chronologically:
- the source database can advantageously memorize:
- At least one in particular each of the steps, in particular the learning step, and / or the step of selection, and / or the prediction step may take into account data on a predetermined sliding time window preceding the present moment.
- the method according to the invention makes it possible to make a prediction based, not on a snapshot of the values of the variables relating to the object, but on an evolution of the values of these variables. Such a prediction is more precise and finer.
- a high instantaneous temperature value measured by a sensor of a machine is not necessarily a sign of a machine failure, it must take into account how the temperature has evolved. Indeed, if a regular rise in temperature may not be a sign of failure, a rapid temperature spike may be.
- the method according to the invention makes it possible to make a fine prediction making it possible to discriminate these cases. This makes it possible either to avoid false alarms or to avoid the non-detection of a future failure.
- the source database may further include:
- At least one datum calculated as a function of one or more measured data and of a predetermined relation such as, for example, a summation, a subtraction, an average, a variance, an integral or a derivative of one or more variables, for example on a predetermined time window,
- exogenous datum relating to an environment in which said target object is located, such as, for example, a temperature outside said object, a humidity external to said object, a breakdown of an organ or apparatus with which said object is in relation to or with which said object cooperates, etc.
- At least one classifier used in the present invention can implement:
- a clustering algorithm that is to say a hierarchical grouping or partitioning algorithm, a network of neurons,
- the automatic learning step can realize an apprenticeship:
- the prediction step may comprise a provision of at least one piece of data relating to the result of the prediction, in particular regardless of the result of the prediction or only when the result of the prediction bears witness to the future realization of a predetermined state. .
- This step may further include displaying at least one data item when a future realization of a state is detected.
- this prediction step may comprise the display of an identification data item of the detected state, for example in the form of a message intelligible to the man.
- the prediction step may, in addition or alternatively, trigger an audible or visual warning when a predetermined state, for example a failure, is detected.
- a predetermined state for example a failure
- the method according to the invention can be implemented for the prediction of a state among several predetermined states for an object.
- the method according to the invention can also be implemented for the prediction of a state for several objects, identical or different, arranged on the same site or on at least two sites distributed in space, that is to say - say distant to each other.
- the method can be performed for each object independently of the others.
- the method may take into account at least one piece of data relating to another object or an organ of another object on the same site.
- the method when used for the prediction of a failure for elevators, it can be applied independently for each elevator, especially when they are all distant from each other.
- the method can take into account at least one item relating to one of the lifts for the prediction of a breakdown of the other elevator and vice versa.
- the method according to the invention can be applied for the prediction of a state of failure of a machine or an organ of a machine.
- the measured variables relating to the machine may comprise at least one of the following variables: pressure, temperature, humidity, etc. , in / around the machine, in / around an organ of the machine, etc.
- the method according to the invention can be applied to any machine equipped with sensor (s) and able to reassemble relative to the machine or a member of the machine on a regular basis (in particular, the connected objects).
- the invention also relates to a computer program product comprising instructions implementing all the steps of the method according to the invention, when it is implemented or loaded into a computer device.
- a computer program product may include computer instructions written in all types of computer language, such as C, C ++, JAVA, etc.
- the invention also relates to a system comprising means configured to implement all the steps of the method according to the invention.
- Such a system can be reduced to a computer, or more generally to an electronic / computer device.
- FIG. 1 is a schematic representation of a nonlimiting exemplary embodiment of a prediction method according to the invention
- FIG. 2 is a diagrammatic representation of a nonlimiting example of a system according to the invention, in particular for implementing the method of FIG. 1;
- FIGURES 3-4 give a schematic representation of a very simplified embodiment for the prediction of the operating state of four machines.
- FIGU RE 1 is a schematic representation of an example of non-limiting realisation of a prediction method according to the invention.
- the method 100 described in FIG. 1 will be described hereinafter in the context of an exemplary application which is the detection of failures on elevators arranged on sites distributed in space.
- the method 100 shown in FIG. 1 comprises a phase 102, previously selected, only performed at the beginning of the method 100.
- This prior phase 102 includes an optional step 104 of generating a source database, in the form of a timed frieze or timel ine, for each elevator concerned by the prediction.
- the source database can be generated by measuring and detecting data, over a predetermined period, by sensors on each elevator.
- the source database can be generated by reconciliation of data previously stored in several databases, namely:
- At least one database comprising the values of different variables measured over time for each elevator, as well as for each measurement timestamp data indicating the moment of the measurement, and
- At least one database listing for each lift the past failures, as well as time stamp data indicating the time of the failure.
- the variables whose values are measured for each elevator may include the temperature, pressure, load carried by the elevator, the number of return trips made, distance traveled, etc. Of course, if the source database is existing, step 104 is not performed.
- the method 100 further comprises an optional step 106 of enriching the source database with one or more variables obtained by processing the variables already existing in the database.
- this step 106 can add in the database at least one variable obtained by applying a mathematical relation to at least one existing variable in the database, such as for example:
- the enrichment step 106 may furthermore alternatively comprise adding to the database at least one value of an exogenous variable relating to the environment of the elevator, such as, for example, the temperature outside the elevator, the number of floors served by the elevator, etc.
- the method realizes a generation of at least two classifiers implementing different classification algorithms.
- the method realizes a generation of three classifiers, namely:
- a first classifier realizing a classification by a decision tree
- a third classifier realizing a classification by partitioning, "data clustering" in English.
- this step 108 creates an instance of each of these classifiers according to the number of input data and the number of output status.
- a step 110 it is possible to apply at least one parameter, called stress, concerning the architecture of a classifier.
- the step 110 fixes for the first classifier the value of a parameter of maximum depth and for the second classifier the value of a parameter of nodes, these values being predetermined by the user or an operator.
- each classifier generated during step 108 is then subjected to a training with 60% of the data of the source database comprising for each state a multitude of past occurrences of a failure of each elevator.
- the automatic learning performed is a supervised learning, that is, each occurrence of a failure is indicated as output to each classifier and the values of the variables measured before this failure are entered as data. input.
- An optional step 114 makes it possible to carry out a cross-validation of the automatic learning of each classifier, by cross-validation of the learning of each classifier, for example on 20% of the data of the classifier. database. Of course, these 20% are different from the 60% of data used in step 112. This is a simple test step, to check the stability of the classifier. If the learning is not effective, the classifier will not be stable and will not be chosen for the future.
- the prior phase 102 then comprises a classifier selection step 116, which provides the best prediction result. To do this, everyone of the three classifiers is tested on the same 20% of the data in the database. For each of the three classifiers, are measured:
- this precision data indicates errors during the classification, such as by example the fact of not detecting a past fault or detecting a failure while it has not occurred;
- recall a donation, called recall, relating to the number of past failures detected.
- the classifier providing the best detection performance is selected.
- the selected classifier for example the first classifier, is stored as their classifier.
- the other classifiers are also stored in this step 120.
- the learning steps 112 to 116 are performed taking into account the values of the measured variables, if necessary calculated, in a sliding time window, of a predetermined value such that a month or 15 days, back to the past, and the end of which corresponds to the current moment or the moment of the last measurement.
- the predetermined value of the time window may be predetermined or adjusted during a step, for example realized at the same time or before step 104 of generating the source database.
- the method 100 comprises, following the prior phase 102, at least one iteration of a phase 120, called detection.
- Phase 120 includes a step 122 of updating the source database over time. This step 122 adds in the timeline associated with each elevator the last values of the last measured variables, if any calculated, in association with hourly data indicating the time of measurement for each new value of each new variable.
- Phase 120 also includes a prediction step 124 with the best classifier based on the database data set. day. To do this, the last values added in the database, preferably with the values stored in the database prior to the updating step and found in the sliding time window, are given as input to the best classifier which provides a prediction data, signaling a future occurrence or not of a state of failure of an elevator.
- the prediction step 124 may be performed after "n" updating step, with n ⁇ l, or at another frequency, for example temporal, for example every week, or at the request of an operator.
- the method according to the invention may comprise one or more audible or visual alerting steps intended for a local or remote operator.
- the method 100 of FIG. 1 further comprises at least one iteration of a step 126, called verification step, to check in time that the best classifier remains the one which, among all the classifiers generated and stored in step 118, provides the best prediction performance.
- this step 126 includes an iteration of the steps 112-116 described above with the database as updated at the time of performing the verification step.
- This verification step is performed after "n" iterations of the prediction step or the prediction phase, with n ⁇ l, or at another frequency, for example temporal, for example every week, or on request of 'an operator. If the best classifier is still the one currently used then the method 100 resumes in step 122 with the best current classifier. In contrast, the process resumes at step 122 with the new best classifier, which is stored in place of the former best classifier.
- FIG. 2 is a schematic representation of a nonlimiting example of a system according to the invention, in particular configured for the implementation of the method 100 of FIG. 1.
- the system 200 of FIG. 2 comprises a supervision module 202 for managing and coordinating the operation of the various modules of the system, namely:
- a module 204 optional, configured to generate a source database 206, by reconciliation of various existing databases and / or by data enrichment, in particular as described above with reference to steps 104 and 106;
- a module 208 for instantiating several classifiers configured to create an instance of several classifiers, and possibly for adjusting at least one parameter relating to the architecture of at least one classifier, in particular as described above with reference to the steps 108 and 110;
- At least one drive module 210 configured to carry out the automatic learning of each classifier, in particular as described above with reference to step 112;
- At least one optional cross-validation module 212 configured to perform cross-validation of each classifier, in particular as described above with reference to step 114; at least one selection module 214, configured to select the best classifier, in particular as described above with reference to step 116;
- At least one updating module 216 configured to update the source database in time, in particular as described above with reference to step 122;
- At least one prediction module 218, configured to provide prediction data concerning the future occurrence of a state, for example of a failure, in particular as described above with reference to step 124;
- At least one verification module 220 configured to verify that the best classifier is still the one used for the prediction, in particular as described above with reference to step 124.
- verification module 220 configured to verify that the best classifier is still the one used for the prediction, in particular as described above with reference to step 124.
- the system 200 can be a computer, a processor, an electronic chip or any other means that can be configured physically or by software to carry out the steps of the method according to the invention.
- FIGURES 3-4 give a schematic representation of an example of a very simplified application of the method according to the invention to machines.
- FIGURES 3-4 relates to four machines for which two variables are measured, one corresponding to the temperature T ° in the machine and the other to the pressure P in the machine.
- Table 300 the measured values of variables T ° and P at a given moment show that the four machines exhibit different behaviors.
- the machines 1, 2 and 3 have normal operation and the machine 4 has an abnormal operation signifying a failure.
- an instance of two different classifiers is created, namely an instance of a decision tree type collider and an instance of a kMeans type collider.
- each of the two classifiers created is tested on the values indicated in Table 300.
- the result obtained is shown in Figure 4 for each classifier.
- the decision tree classifier 402 detects the failure of the machine 4 and the normal operation of the other three machines
- the kMeans 404 classifier detects normal operation for two of the machines and a failure for them. two others.
- the best classifier among the two classifiers tested is the decision tree classifier that is selected and used for future predictions about the operating status of these four machines.
- FIGS RES 3-4 is a very simplified example, given only as ill ustration.
- the number of variables is much larger, by the order of a thousand variables, and the number of machines is also greater. Consequently, the size of the classifiers is also larger than the size of the classifiers shown in FIGU RE 4.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
The present invention relates to a method (100) for predicting the future realization of at least one state that may be taken by an object, on the basis of a source database, storing, for past occurrences of said at least one state, values of the variables relating to said object, said method (100) comprising the following steps: - generation (108) of at least two classifiers according to two different data classification algorithms, - for each of said classifiers, automatic learning (112), and - selection (116) of the best classifier among said classifiers; said method (100) furthermore comprising a phase (120), termed the detection phase, comprising: - an updating (122), over time, of said source database, and - at least one step (124) of prediction by said best classifier on the basis of said updated source database.
Description
« Procédé et système de prédiction de la réalisation d'un état prédéterminé d'un objet » "Method and system for predicting the achievement of a predetermined state of an object"
Domaine technique Technical area
La présente invention concerne un procédé de prédiction de la réalisation d'un état d'un objet, avant que ledit état ne se réalise. Elle concerne également un système mettant en œuvre un tel procédé. The present invention relates to a method for predicting the realization of a state of an object, before said state is realized. It also relates to a system implementing such a method.
Le domaine de l'invention est le domaine de la prédiction de l'occurrence d'un événement prédéterminé concernant un objet, et en particulier d'une panne d'un appareil ou d'un organe d'un appareil avant que ladite panne n'ait lieu. The field of the invention is the field of predicting the occurrence of a predetermined event concerning an object, and in particular of a failure of an appliance or an appliance member before said breakdown occurs. 'takes place.
Etat de la technique State of the art
Quel que soit leur niveau de perfectionnement, les machines industrielles sont régulièrement sujettes aux pannes. Dès lors qu'elles sont déployées dans leur environnement de fonctionnement, les pannes de ces machines ont pour première conséquence une baisse ou une interruption de la fonctionnalité qu'elles offrent et ce quel que soit le domaine considéré. Whatever their level of sophistication, industrial machines are regularly prone to breakdowns. As soon as they are deployed in their operating environment, the breakdowns of these machines have as a first consequence a decrease or an interruption of the functionality that they offer and this whatever the field considered.
Il existe actuellement des procédés et systèmes permettant de détecter une panne d'une machine, et plus généralement un état d'un objet lorsque ledit état se produit. Ces procédés et systèmes se basent sur un ou des capteurs disposés sur la machine cible et prévus pour détecter la panne de la machine après que la réalisation de ladite panne a lieu. There are currently methods and systems for detecting a failure of a machine, and more generally a state of an object when said state occurs. These methods and systems are based on one or more sensors arranged on the target machine and intended to detect the failure of the machine after the occurrence of said failure takes place.
Ces procédés présentent plusieurs inconvénients. D'une part, ces procédés ne permettent pas d'éviter une baisse ou une interruption de la fonctionnalité réalisée par la machine. D'autre part, la détection de la panne n'ayant lieu qu'après sa réalisation, la résolution de la panne ne peut être réalisée rapidement, ce qui entraine une baisse/absence de fonctionnalité pendant une durée non négligeable. These methods have several disadvantages. On the one hand, these methods do not make it possible to avoid a decrease or an interruption of the functionality performed by the machine. On the other hand, the detection of the failure occurring after its completion, the resolution of the failure can be achieved quickly, which causes a decline / lack of functionality for a significant period.
Pour tenter de pallier ces inconvénients, des procédés et systèmes de prédiction de panne ont été développés. Ces procédés mettant en œuvre un algorithme de prédiction d'une panne d'une machine cible prenant en compte diverses données relatives à ladite machine cible. Cependant, ces procédés et
systèmes présentent également des inconvénients : ils sont développés spécifiquement à un type de machine, sont peu flexibles, et fournissent des résultats peu précis. Un but de la présente invention est de remédier aux inconvénients précités. In an attempt to overcome these disadvantages, methods and systems for prediction of failure have been developed. These methods implement an algorithm for predicting a failure of a target machine taking into account various data relating to said target machine. However, these methods and systems also have drawbacks: they are developed specifically to a type of machine, are not very flexible, and provide inaccurate results. An object of the present invention is to overcome the aforementioned drawbacks.
Un autre but de la présente invention est de proposer un procédé et un système de prédiction d'un état d'un objet plus flexible. Another object of the present invention is to provide a method and a system for predicting a state of a more flexible object.
Il est aussi un but de la présente invention de proposer un procédé et un système de prédiction d'un état d'un objet pouvant être utilisé pour tous types d'objets, avec peu de modifications. It is also an object of the present invention to provide a method and system for predicting a state of an object that can be used for all types of objects, with little modification.
Enfin, un autre but de la présente invention est de proposer un procédé et un système de prédiction d'un état d'un objet fournissant des résultats plus précis. Finally, another object of the present invention is to provide a method and a system for predicting a state of an object providing more accurate results.
Exposé de l'invention Presentation of the invention
Au moins un de ces objectifs est atteint par un procédé de prédiction de la réalisation d'au moins un état que peut prendre un objet, avant que ledit état ne se réalise, à partir d'une base de données, dite source, mémorisant, pour au moins une, en particulier plusieurs, occurrence(s) passée(s) dudit au moins un état, des valeurs d'au moins un, en particulier de plusieurs, variable(s) relative(s) audit objet, déterminées avant ladite, ou chacune desdites, occurrence(s) dudit état, ledit procédé comprenant les étapes suivantes : At least one of these objectives is achieved by a method for predicting the realization of at least one state that an object can take, before said state is realized, from a database, called a source, storing, for at least one, in particular several, occurrence (s) passed (s) of said at least one state, values of at least one, in particular of several, variable (s) relative to said object, determined before said , or each of said occurrence (s) of said state, said method comprising the following steps:
- génération d'au moins deux classifieurs selon deux algorithmes de classification de données différents, generating at least two classifiers according to two different data classification algorithms,
- pour chacun desdits classifieurs, apprentissage automatique sur une première partie de ladite base de données source, for each of said classifiers, automatic learning on a first part of said source database,
- sélection, parmi lesdits classifieurs, d'un classifieur, dit meilleur classifieur, fournissant la meilleure performance de prédiction sur une deuxième partie de ladite base de données source, par comparaison des résultats fournis par chaque classifieur ; ledit procédé comprenant en outre une phase, dite de détection, comprenant :
- une mise à jour, dans le temps, de ladite base de données source avec au moins une nouvelle valeur de ladite variable, selecting, from said classifiers, a classifier, said best classifier, providing the best prediction performance on a second part of said source database, by comparing the results provided by each classifier; said method further comprising a so-called detection phase comprising: an update, in time, of said source database with at least one new value of said variable,
- au moins une étape de prédiction d'un état, par ledit meilleur classifieur, à partir de ladite base de données source mise à jour. Ainsi, pour détecter la réalisation future d'un état d'un objet, le procédé de prédiction selon l'invention permet de générer et de tester plusieurs classifieurs de prédiction à partir des données relatives audit objet, et en particulier sur les occurrences passées dudit état, et de choisir le classifieur fournissant le meilleur résultat de prédiction. at least one step of predicting a state, by said best classifier, from said updated source database. Thus, to detect the future realization of a state of an object, the prediction method according to the invention makes it possible to generate and test several prediction classifiers from the data relating to said object, and in particular to past occurrences of said object. state, and choose the classifier providing the best prediction result.
Par conséquent, le procédé selon l'invention est plus flexible car il permet de s'adapter à n'importe quel type d'objet pour la détection de n'importe quel état dont les occurrences passées sont connues, en proposant un apprentissage de chaque classifieur directement en fonction des données concernant l'objet. Consequently, the method according to the invention is more flexible because it makes it possible to adapt to any type of object for the detection of any state whose past occurrences are known, by proposing a learning of each classifier directly according to the object data.
Le procédé selon l'invention est également utilisable pour tous types d'objets, avec peu de modifications, car il permet de sélectionner de manière automatisée le classifieur le plus adapté pour chaque objet parmi plusieurs classifieurs utilisant différents algorithmes. The method according to the invention can also be used for all types of objects, with few modifications, since it makes it possible to automatically select the most suitable classifier for each of several classifiers using different algorithms.
Enfin, le procédé selon l'invention permet de réaliser une prédiction plus précise de la réalisation d'un état d'un objet car la prédiction est réalisée avec le classifieur qui, parmi plusieurs classifieurs testés, fournit le meilleur résultat de prédiction. Finally, the method according to the invention makes it possible to make a more precise prediction of the realization of a state of an object because the prediction is performed with the classifier which, among several classifiers tested, provides the best prediction result.
Bien entendu, chacune des première et deuxième parties de la base de données source comprend au moins une occurrence, en particulier une multitude d'occurrences, passée(s) pour l'au moins un état de l'objet. Of course, each of the first and second parts of the source database comprises at least one occurrence, in particular a multitude of occurrences, passed for the at least one state of the object.
Par « classifieur » on entend, un algorithme ou une famille d'algorithme de classement statistique. Cette notion est bien connue de l'homme du métier en tant que telle dans le domaine du classement statistique. Il n'est donc pas nécessaire de détailler plus cette notion. By "classifier" is meant an algorithm or a family of statistical ranking algorithm. This concept is well known to those skilled in the art as such in the field of statistical classification. It is therefore not necessary to detail this notion further.
Par « apprentissage », on entend le processus permettant de déterminer, en particulier par itération, les coefficients d'un classifieur en fonction de données d'entrée connues et de de données de sorties connues. Cette notion est également bien connue de l'homme du métier en tant que telle dans le domaine du classement statistique. Il n'est donc pas nécessaire
de détailler plus cette notion. Il est possible de trouver plus de détail sur l'apprentissage à la page dont l'adresse est la suivante : http ://fr.wikipedia.orq/wiki/Référence: Machine Learninq') By "learning" is meant the process of determining, in particular by iteration, the coefficients of a classifier based on known input data and known output data. This concept is also well known to those skilled in the art as such in the field of statistical classification. It is not necessary to detail more this notion. It is possible to find more details about learning on the page whose address is: http: //en.wikipedia.orq/wiki/Reference: Machine Learninq ' )
Dans la suite de la description, l'objet pour lequel la prédiction est réalisée peut être appelé objet cible pour éviter des lourdeurs rédactionnelles. In the remainder of the description, the object for which the prediction is made can be called the target object to avoid red tape.
Avantageusement, le procédé selon l'invention peut en outre comprendre au moins une itération d'une étape, dite de vérification, pour vérifier dans le temps que le meilleur classifieur reste celui qui, parmi tous les classifieurs générés, fournit la meilleure performance de prédiction, ladite étape de vérification comprenant les étapes d'apprentissage et de sélection réalisée sur ladite base de données mise à jour au moment de ladite itération de ladite étape de vérification. Advantageously, the method according to the invention may further comprise at least one iteration of a step, called verification step, to check in time that the best classifier remains the one which, among all the classifiers generated, provides the best prediction performance. said verification step comprising the learning and selection steps performed on said updated database at the time of said iteration of said verification step.
Cette étape de vérification est réalisée après une ou plusieurs étapes de prédiction. This verification step is performed after one or more prediction steps.
Ainsi, le procédé selon l'invention permet de surveiller dans le temps que le classifieur choisi au début du procédé reste celui qui fournit le meilleur résultat de prédiction. Thus, the method according to the invention makes it possible to monitor in time that the classifier selected at the beginning of the process remains the one that provides the best prediction result.
Cette caractéristique du procédé selon l'invention est particulièrement avantageuse. En effet, grâce à cette caractéristique, le procédé de prédiction selon l'invention ne se base pas sur un apprentissage d'un classifieur appris une fois pour toutes, mais continue d'apprendre au fur et à mesure. Cette fonctionnalité permet de prendre en compte l'évolution dans le temps de l'objet cible, tel que par exemple le vieillissement de l'objet cible, une modification de l'usage de l'objet cible, etc. This characteristic of the process according to the invention is particularly advantageous. Indeed, thanks to this feature, the prediction method according to the invention is not based on learning a classifier learned once and for all, but continues to learn as and when. This functionality makes it possible to take into account the evolution in time of the target object, such as for example the aging of the target object, a modification of the use of the target object, etc.
L'étape de vérification peut être déclenchée par un opérateur et/ou de manière automatisée à une fréquence prédéterminée, par exemple en fonction du nombre d'itération de la phase de détection. The verification step can be triggered by an operator and / or automatically at a predetermined frequency, for example depending on the iteration number of the detection phase.
Suivant un mode de réalisation non limitatif, l'étape de sélection du meilleur classifieur peut comprendre : According to one nonlimiting embodiment, the step of selecting the best classifier may comprise:
- une mesure, pour chaque classifieur :
■ d'une donnée, dite de précision, relative à un taux d'erreur lors de la détection des occurrences passées d'au moins un état, - a measure, for each classifier: A piece of data, referred to as precision, relating to an error rate when detecting past occurrences of at least one state,
■ d'une donnée, dite de rappel, relative au nombre d'occurrences passées d'au moins un état, détectées par ledit classifieur; ■ a data, called recall, relating to the number of past occurrences of at least one state, detected by said classifier;
- la sélection du meilleur classifieur étant réalisée en fonction de ladite donnée de précision et/ou de ladite donnée de rappel . Ainsi, le procédé selon l'invention permet de mieux prendre en compte les résultats de chaque classifieur en vue de choisir le classifieur fournissant le meilleur résultat de prédiction . the selection of the best classifier being carried out as a function of said precision data and / or of said recall data. Thus, the method according to the invention makes it possible to better take into account the results of each classifier with a view to choosing the classifier providing the best prediction result.
Avantageusement, le procédé selon l'invention peut en outre comprendre, après l'étape d'apprentissage automatique, une étape, dite de cross-validation, testant au moins un, en particulier chaque, classifieur, sur une troisième partie de ladite base de données source. Advantageously, the method according to the invention may further comprise, after the automatic learning step, a so-called cross-validation step, testing at least one, in particular each, classifier, on a third part of said base of source data.
Bien entendu, cette troisième partie de la base de données source comprend au moins une occurrence, en particulier une multitude d'occurrences, passée(s) pour l'au moins un état de l'objet. Of course, this third part of the source database comprises at least one occurrence, in particular a multitude of occurrences, passed (s) for the at least one state of the object.
Cette étape de cross-validation, également appelée validation croisée, permet de valider l'apprentissage d'un classifieur réalisé sur la première partie de la base de données source, sur une troisième partie, différente de la première partie. Cette étape de cross validation permet plus particulièrement de tester la stabilité de chaque classifieur obtenu suite à l'étape d'apprentissage. This step of cross-validation, also called cross validation, validates the learning of a classifier made on the first part of the source database, on a third part, different from the first part. This step of cross validation makes it possible more particularly to test the stability of each classifier obtained following the learning step.
Il existe différentes techniques de validation croisée qui peuvent être utilisées pour un classifieur, telles que par exemple la technique connue sous le nom « testset validation », la technique connue sous le nom « holdout method », la technique connue sous le nom « k-fold cross-validation » ou encore la technique connue sous le nom « leave-one-out cross-validation ». There are different cross-validation techniques that can be used for a classifier, such as for example the technique known as "testing and validation", the technique known as "holdout method", the technique known as "k- fold cross-validation "or the technique known as" leave-one-out cross-validation ".
La première partie de la base de données source, utilisée pour l'apprentissage, peut être appelée, partie d'apprentissage. Elle peut correspondre à 60% ou plus de la base de données source.
La deuxième partie de la base de données, différente de la première partie, peut être appelée, partie de sélection . La deuxième partie de la base de données peut correspondre à 20% de la base de données source. The first part of the source database, used for learning, can be called learning part. It can be 60% or more of the source database. The second part of the database, different from the first part, can be called part of selection. The second part of the database can correspond to 20% of the source database.
La troisième partie de la base de données, différente de la première et de la deuxième partie, peut être appelée, partie de test ou de cross-validation ou de validation croisée. La deuxième partie de la base de données peut correspondre à 20% de la base de données source. The third part of the database, different from the first and the second part, can be called part of test or cross-validation or cross-validation. The second part of the database can correspond to 20% of the source database.
La première partie et la troisième partie de la base de données source peuvent être différentes pour chaque classifieur. Par contre, la deuxième partie de la base de données source, utilisée lors de l'étape de sélection, est identique pour chaque classifieur. The first part and the third part of the source database may be different for each classifier. On the other hand, the second part of the source database, used during the selection step, is identical for each classifier.
L'étape de génération peut avantageusement comprendre, pour au moins un classifieur, une étape d'ajustement/d'entrée d'un paramètre relatif à l'architecture dudit classifieur. The generation step may advantageously comprise, for at least one classifier, a step of adjusting / entering a parameter relating to the architecture of said classifier.
Un tel paramètre peut être ou comprendre un nombre maximum/minimum de nœuds dans le classifieur, une profondeur maximum/minimum dudit classifieur, un nombre d'arbre dans le classifieur, etc. etc. Such a parameter can be or include a maximum / minimum number of nodes in the classifier, a maximum / minimum depth of said classifier, a number of trees in the classifier, and so on. etc.
Une telle étape d'ajustement permet d'appliquer au moins une contrainte, identique ou différente, pour au moins un, en particulier chaque, classifieur et ainsi de contrôler/ajuster les ressources informatiques nécessaires à l'exécution du procédé selon l'invention, par exemple en termes de mémoire et de puissance de calcul, et/ou le temps d'exécution du procédé selon l'invention . Il est ainsi possible d'ajuster et de personnaliser encore plus le procédé selon l'invention à chaque objet, et plus généralement à chaque cas. Avantageusement, le procédé selon l'invention peut comprendre, avant l'étape d'apprentissage, une étape de génération de ladite base de données source par réconciliation d'au moins une base de données comprenant des valeurs d'au moins une variable relative audit objet, avec au moins une autre base de données comprenant des données relatives à au moins une occurrence passée d'au moins un état.
Une telle étape est nécessaire lorsque les données relatives à l'objet cible sont mémorisées sur différentes bases de données. Par exemple, dans le cas de machines de type ascenseurs, il arrive très souvent que les données mesurées par les capteurs disposés sur l'ascenseur soient mémorisées dans une première base de données et les données relatives aux pannes passées de l'ascenseur soient mémorisées dans une autre base de données. Dans ce cas, il est nécessaire de construire une unique base de données comprenant à la fois les données mesurées par les capteurs et les occurrences passées d'une panne de l'ascenseur. Such an adjustment step makes it possible to apply at least one constraint, identical or different, for at least one, in particular each, classifier and thus to control / adjust the computing resources necessary for carrying out the method according to the invention, for example in terms of memory and computing power, and / or the execution time of the method according to the invention. It is thus possible to adjust and further customize the method according to the invention to each object, and more generally to each case. Advantageously, the method according to the invention can comprise, before the learning step, a step of generating said source database by reconciliation of at least one database comprising values of at least one variable relating to said auditory database. object, with at least one other database including data relating to at least one past occurrence of at least one state. Such a step is necessary when the data relating to the target object is stored on different databases. For example, in the case of elevator type machines, it very often happens that the data measured by the sensors arranged on the elevator are stored in a first database and the data relating to the past failures of the elevator are stored in another database. In this case, it is necessary to construct a single database comprising both the data measured by the sensors and the past occurrences of a failure of the elevator.
Suivant un mode de réalisation particulièrement préféré, pour l'objet cible, en particulier pour chaque objet cible, les données relatives audit objet sont organisées sous la forme d'une frise chronologique ou ligne de temps (« timeline » en anglais). According to a particularly preferred embodiment, for the target object, in particular for each target object, the data relating to said object are organized in the form of a chronological frieze or time line ("timeline" in English).
Plus particulièrement, la base de données source comprend pour l'objet cible, en particulier pour chaque objet cible, une timeline sur laquelle sont indiquées de manière chronologique : More particularly, the source database comprises for the target object, in particular for each target object, a timeline on which are indicated chronologically:
- les valeurs des variables mesurées, et - the values of the measured variables, and
- la signalisation de l'occurrence d'un état, en particulier de chaque état, de l'objet, etc. the signaling of the occurrence of a state, in particular of each state, of the object, etc.
- pour chaque état, des données relatives à une intervention, telle qu'une réparation ou un remplacement de l'objet ou d'un organe de l'objet Plus généralement, pour chaque objet cible, la base de données source peut avantageusement mémoriser : for each state, data relating to an intervention, such as a repair or a replacement of the object or an organ of the object More generally, for each target object, the source database can advantageously memorize:
- pour chaque valeur mesurée d'une variable, au moins une donnée temporelle relative au moment de la mesure de ladite valeur, et for each measured value of a variable, at least one temporal datum relating to the moment of measurement of said value, and
- pour chaque occurrence passée d'au moins un, en particulier de chaque état, une donnée temporelle relative au moment de ladite occurrence. for each occurrence passed by at least one, in particular of each state, a temporal datum relating to the moment of said occurrence.
Suivant un mode de réalisation avantageux, au moins une en particulier chacune des étapes, en particulier l'étape d'apprentissage, et/ou l'étape de
sélection, et/ou l'étape de prédiction, peut prendre en compte des données sur une fenêtre temporelle glissante prédéterminée précédent le moment actuel. According to an advantageous embodiment, at least one in particular each of the steps, in particular the learning step, and / or the step of selection, and / or the prediction step, may take into account data on a predetermined sliding time window preceding the present moment.
Ainsi, le procédé selon l'invention permet de réaliser une prédiction basée, non pas sur une photographie instantanée des valeurs des variables relatives à l'objet, mais sur une évolution des valeurs de ces variables. Une telle prédiction est plus précise et plus fine. Thus, the method according to the invention makes it possible to make a prediction based, not on a snapshot of the values of the variables relating to the object, but on an evolution of the values of these variables. Such a prediction is more precise and finer.
Par exemple, une valeur instantanée élevée de température mesurée par un capteur d'une machine n'est pas forcément signe d'une panne de la machine, il faut prendre en compte la façon dont la température a évoluée. En effet, si une montée en température régulière peut ne pas être signe de panne, un pic de température rapide peut l'être. Le procédé selon l'invention permet de réaliser une prédiction fine permettant de discriminer ces cas. Cela permet soit d'éviter les fausses alertes, soit d'éviter la non détection d'une panne future. For example, a high instantaneous temperature value measured by a sensor of a machine is not necessarily a sign of a machine failure, it must take into account how the temperature has evolved. Indeed, if a regular rise in temperature may not be a sign of failure, a rapid temperature spike may be. The method according to the invention makes it possible to make a fine prediction making it possible to discriminate these cases. This makes it possible either to avoid false alarms or to avoid the non-detection of a future failure.
Pour au moins un objet cible, la base de données source peut en outre comprendre : For at least one target object, the source database may further include:
- au moins une donnée calculée en fonction d'une ou plusieurs données mesurées et d'une relation prédéterminée, telle que par exemple une sommation, une soustraction, une moyenne, une variance, une intégrale ou une dérivée d'une ou plusieurs variables, par exemple sur une fenêtre temporelle prédéterminée, at least one datum calculated as a function of one or more measured data and of a predetermined relation, such as, for example, a summation, a subtraction, an average, a variance, an integral or a derivative of one or more variables, for example on a predetermined time window,
- au moins une donnée, dite exogène, relative à un environnement dans lequel se trouve ledit objet cible, tel que par exemple une température extérieure audit objet, une humidité extérieure audit objet, une panne d'un organe ou d'un appareil avec lequel ledit objet est en relation ou avec lequel ledit objet coopère, etc. at least one so-called exogenous datum relating to an environment in which said target object is located, such as, for example, a temperature outside said object, a humidity external to said object, a breakdown of an organ or apparatus with which said object is in relation to or with which said object cooperates, etc.
Au moins un classifieur utilisé dans la présente invention peut mettre en œuvre: At least one classifier used in the present invention can implement:
- un arbre de décision, a decision tree,
- un support vecteur-machine, a vector-machine support,
- un algorithme de clustering, c'est-à-dire un algorithme de regroupement hiérarchique ou de partitionnement,
- un réseau de neurones, a clustering algorithm, that is to say a hierarchical grouping or partitioning algorithm, a network of neurons,
- une régression linéaire, - a linear regression,
- un ensemble d'arbre de décision, de type « random forest » par exemple a set of decision trees, such as "random forest" for example
- etc. - etc.
Chacun de ces classifieurs est connu en tant que tel par l'homme du métier dans le domaine de la prédiction. Il n'est donc pas nécessaire ici de détailler l'architecture de chacun de ces classifieurs. Pour au moins un classifieur, l'étape d'apprentissage automatique peut réaliser un apprentissage : Each of these classifiers is known to those skilled in the art in the field of prediction. It is not necessary here to detail the architecture of each of these classifiers. For at least one classifier, the automatic learning step can realize an apprenticeship:
- supervisé, - supervised,
- non supervisé, - unsupervised,
- semi-supervisé, - semi-supervised,
- partiellement supervisé, - partially supervised,
- par renforcement, ou - by reinforcement, or
- par transfert. - by transfer.
Chacune de ces techniques d'apprentissage est également connue, de l'homme du métier, en tant que telle. Pour des raisons de concision, elles ne seront donc pas détaillées dans la présente demande. Each of these learning techniques is also known to those skilled in the art as such. For reasons of brevity, they will not be detailed in this application.
L'étape de prédiction peut comprendre une fourniture d'au moins une donnée relative au résultat de la prédiction, en particulier quel que soit le résultat de la prédiction ou uniquement lorsque le résultat de la prédiction témoigne de la réalisation future d'un état prédéterminé. The prediction step may comprise a provision of at least one piece of data relating to the result of the prediction, in particular regardless of the result of the prediction or only when the result of the prediction bears witness to the future realization of a predetermined state. .
Cette étape peut en outre comprendre un affichage d'au moins une donnée lorsqu'une réalisation future d'un état est détectée. Alternativement ou en plus, cette étape de prédiction peut comprendre l'affichage d'une donnée d'identification de l'état détectée, par exemple sous la forme d'un message intelligible pour l'homme. This step may further include displaying at least one data item when a future realization of a state is detected. Alternatively or additionally, this prediction step may comprise the display of an identification data item of the detected state, for example in the form of a message intelligible to the man.
De plus, l'étape de prédiction peut, en plus ou alternativement, réaliser un déclenchement d'un avertissement sonore ou visuel lorsqu'un état prédéterminé, par exemple une panne, est détecté.
Le procédé selon l'invention peut être mis en œuvre pour la prédiction d'un état parmi plusieurs états prédéterminés pour un objet. In addition, the prediction step may, in addition or alternatively, trigger an audible or visual warning when a predetermined state, for example a failure, is detected. The method according to the invention can be implemented for the prediction of a state among several predetermined states for an object.
Le procédé selon l'invention peut en outre être mis en œuvre pour la prédiction d'un état pour plusieurs objets, identiques ou différents, disposés sur un même site ou sur au moins deux sites distribués dans l'espace, c'est-à- dire distants entre eux. The method according to the invention can also be implemented for the prediction of a state for several objects, identical or different, arranged on the same site or on at least two sites distributed in space, that is to say - say distant to each other.
Dans ce cas, le procédé peut être réalisé pour chaque objet indépendamment des autres. In this case, the method can be performed for each object independently of the others.
Alternativement, ou en plus, pour au moins un objet, le procédé peut prendre en compte au moins une donnée relative à un autre objet ou un organe d'un autre objet se trouvant sur le même site. Alternatively, or in addition, for at least one object, the method may take into account at least one piece of data relating to another object or an organ of another object on the same site.
Par exemple, lorsque le procédé est utilisé pour la prédiction d'une panne pour des ascenseurs, il peut être appliqué indépendamment pour chaque ascenseur, en particulier lorsqu'ils sont tous distants les uns des autres. Par contre, dans le cas où deux ascenseurs se trouvant sur un même site, en particulier dans un même bâtiment, le procédé peut prendre en compte au moins une donnée relative à l'un des ascenseurs pour la prédiction d'une panne de l'autre ascenseur et vice versa. For example, when the method is used for the prediction of a failure for elevators, it can be applied independently for each elevator, especially when they are all distant from each other. On the other hand, in the case where two lifts are on the same site, in particular in the same building, the method can take into account at least one item relating to one of the lifts for the prediction of a breakdown of the other elevator and vice versa.
Avantageusement, le procédé selon l'invention peut être appliqué pour la prédiction d'un état de panne d'une machine ou d'un organe d'une machine. Advantageously, the method according to the invention can be applied for the prediction of a state of failure of a machine or an organ of a machine.
Dans ce cas, les variables mesurées relatives à la machine peuvent comprendre au moins une des variables suivantes : pression, température, humidité, etc. , dans/autour de la machine, dans/autour d'un organe de la machine, etc. Plus généralement, le procédé selon l'invention peut être appliqué à toute machine dotée de capteur(s) et capable de remonter des relatives à la machine ou un organe de la machine de façon régulière (en particulier, les objets connectés) . In this case, the measured variables relating to the machine may comprise at least one of the following variables: pressure, temperature, humidity, etc. , in / around the machine, in / around an organ of the machine, etc. More generally, the method according to the invention can be applied to any machine equipped with sensor (s) and able to reassemble relative to the machine or a member of the machine on a regular basis (in particular, the connected objects).
L'invention concerne également un produit programme d'ordinateur comprenant des instructions mettant en œuvre toutes les étapes du procédé selon l'invention, lorsqu'il est mis en œuvre ou chargé dans un appareil informatique.
Un tel produit programme d'ordinateur peut comprendre des instructions informatiques rédigées dans tous types de langage informatique, tel que le C, C+ + , JAVA, etc. The invention also relates to a computer program product comprising instructions implementing all the steps of the method according to the invention, when it is implemented or loaded into a computer device. Such a computer program product may include computer instructions written in all types of computer language, such as C, C ++, JAVA, etc.
L'invention concerne également un système comprenant des moyens configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention. The invention also relates to a system comprising means configured to implement all the steps of the method according to the invention.
Un tel système peut se réduire en un ordinateur, ou plus généralement en un appareil électronique/informatique. Such a system can be reduced to a computer, or more generally to an electronic / computer device.
Description des figures et modes de réalisation Description of the Figures and Embodiments
D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée d'exemples nullement limitatifs, et des dessins annexés sur lesquels : Other advantages and characteristics will appear on examining the detailed description of non-limitative examples, and the appended drawings in which:
- la FIGURE 1 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé de prédiction suivant l'invention ; FIG. 1 is a schematic representation of a nonlimiting exemplary embodiment of a prediction method according to the invention;
- la FIGURE 2 est une représentation schématique d'un exemple non limitatif d'un système selon l'invention, en particulier pour mettre en œuvre le procédé de la FIGURE 1 ; et FIG. 2 is a diagrammatic representation of a nonlimiting example of a system according to the invention, in particular for implementing the method of FIG. 1; and
- les FIGURES 3-4 donnent une représentation schématique d'un exemple de réalisation très simplifié pour la prédiction de l'état de fonctionnement de quatre machines. - FIGURES 3-4 give a schematic representation of a very simplified embodiment for the prediction of the operating state of four machines.
Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer
un avantage techniq ue ou pour d ifférencier l'invention par rapport à l'état de la technique antérieur. It is understood that the embodiments which will be described in the following are in no way limiting. It will be possible, in particular, to imagine variants of the invention comprising only a selection of characteristics described subsequently isolated from the other characteristics described, if this selection of characteristics is sufficient to confer a technical advantage or to differentiate the invention with respect to the state of the art. This selection comprises at least one preferably functional feature without structural details, or with only a portion of the structural details if that part alone is sufficient to confer a technical advantage or to differentiate the invention from the state of the prior art.
En particul ier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan techniq ue. In particular, all the variants and all the embodiments described are combinable with one another if there is nothing to prevent this combination from a technical point of view.
Sur les fig u res, les éléments communs à pl usieurs fig ures conservent la même référence. In the figures, the elements common to several figures retain the same reference.
La FIGU RE 1 est une représentation schématique d 'un exemple de réal isation non limitatif d 'un procédé de prédiction selon l'invention . The FIGU RE 1 is a schematic representation of an example of non-limiting realisation of a prediction method according to the invention.
Le procédé 100 décrit sur la FIGU RE 1 sera décrit dans la suite dans le cad re d 'un exemple d 'application q ui est la détection de pannes sur des ascenseurs disposés sur des sites distribués dans l'espace. The method 100 described in FIG. 1 will be described hereinafter in the context of an exemplary application which is the detection of failures on elevators arranged on sites distributed in space.
Le procédé 100 représenté sur la FIGU RE 1 comprend une phase 102, d ite préalable, réal isée uniquement au début d u procédé 100. The method 100 shown in FIG. 1 comprises a phase 102, previously selected, only performed at the beginning of the method 100.
Cette phase préalable 102 comprend une étape optionnelle 104 de génération d 'une base de données source, se présentant sous la forme d 'une frise temporelle ou timel ine, pour chaq ue ascenseur concerné par la prédiction . La base de données source peut être générée par mesure et détection de données, sur une période prédéterminée, par des capteurs d isposés su r chaque ascenseur. This prior phase 102 includes an optional step 104 of generating a source database, in the form of a timed frieze or timel ine, for each elevator concerned by the prediction. The source database can be generated by measuring and detecting data, over a predetermined period, by sensors on each elevator.
Alternativement, la base de données source peut être générée par réconciliation de données préalablement mémorisées dans plusieurs bases de données, à savoir : Alternatively, the source database can be generated by reconciliation of data previously stored in several databases, namely:
- au moins une base de données comprenant les valeurs de d ifférentes variables mesurées dans le temps pour chaque ascenseur, ainsi q ue pour chaque mesu re des données d'horodatage indiquant le moment de la mesure, et at least one database comprising the values of different variables measured over time for each elevator, as well as for each measurement timestamp data indicating the moment of the measurement, and
- au moins une base de données listant pour chaque ascenseur les pannes passées, ainsi q ue des données d 'horodatage indiquant le moment de la panne. at least one database listing for each lift the past failures, as well as time stamp data indicating the time of the failure.
Les variables dont les valeurs sont mesurées pour chaq ue ascenseur peuvent comprend re la température, la pression, la charge portée par l 'ascenseur, le nombre d'aller-retour effectué, distance effectuée, etc.
Bien entendu, si la base de données source est existante, l 'étape 104 n'est pas réalisée. The variables whose values are measured for each elevator may include the temperature, pressure, load carried by the elevator, the number of return trips made, distance traveled, etc. Of course, if the source database is existing, step 104 is not performed.
Le procédé 100 comprend en outre une étape 106, optionnelle, d 'enrichissement de la base de données source par une ou pl usieurs variables obtenues par traitement des variables déjà existantes dans la base de données. Par exemple, cette étape 106 peut ajouter dans la base de données, au moins une variable obtenue par application d 'une relation mathématiq ue à au moins une variable existante dans la base de données, telle q ue par exemple : The method 100 further comprises an optional step 106 of enriching the source database with one or more variables obtained by processing the variables already existing in the database. For example, this step 106 can add in the database at least one variable obtained by applying a mathematical relation to at least one existing variable in the database, such as for example:
- une sommation, une soustraction, une multiplication et/ou u ne division, d 'au moins deux variables ou d'au moins deux valeurs d 'une même variable, a summation, a subtraction, a multiplication and / or a division of at least two variables or at least two values of the same variable,
- une variance, une dérivée, une intég rale, d 'au moins une variable sur une fenêtre temporelle prédéterminée, en particul ier g lissante, a variance, a derivative, an integer, of at least one variable over a predetermined time window, in particular g sliding,
- etc. - etc.
L'étape 106 d 'enrichissement peut en outre ou alternativement comprend re un ajout dans la base de données d 'au moins une valeur d 'une variable exogène, relatif à l'environnement de l 'ascenseur, tel que par exemple, la température extérieure à l 'ascenseur, le nombre d'étage desservis par l 'ascenseur, etc. The enrichment step 106 may furthermore alternatively comprise adding to the database at least one value of an exogenous variable relating to the environment of the elevator, such as, for example, the temperature outside the elevator, the number of floors served by the elevator, etc.
Bien entend u, cette étape 106 d'enrichissement est aussi optionnelle. Lors d 'une étape 108, le procédé réal ise une génération d 'au moins deux, classifieurs mettant en œuvre des algorithmes de classification d ifférents. Dans le présent exemple, le procédé réal ise une génération de trois classifieurs, à savoir : Of course, this enrichment step 106 is also optional. In a step 108, the method realizes a generation of at least two classifiers implementing different classification algorithms. In the present example, the method realizes a generation of three classifiers, namely:
- un premier classifieur réal isant une classification par un arbre de décision, a first classifier realizing a classification by a decision tree,
- un deuxième classifieur réal isant une classification par un réseau de neurone, a second classifier realizing a classification by a neuron network,
- un troisième classifieur réal isant une classification par partitionnement, « data clustering » en ang lais.
Concrètement, cette étape 108 créé une instance de chacun de ces classifieurs en fonction du nombre de données en entrée et du nombre d'état en sortie. Dans le cas présent, chaque classifieur est instancié pour prendre en entrée 6 variables et réaliser une prédiction d'une panne de chaque ascenseur, c'est-à-dire réaliser une classification dans une seule classe correspondant à un seul état, à savoir « état = panne ». a third classifier realizing a classification by partitioning, "data clustering" in English. Concretely, this step 108 creates an instance of each of these classifiers according to the number of input data and the number of output status. In the present case, each classifier is instantiated to take as input 6 variables and to make a prediction of a failure of each elevator, that is to say to perform a classification in a single class corresponding to a single state, namely " state = failure ".
Lors d'une étape 110, optionnelle, il est possible d'appliquer au moins un paramètre, dit de contrainte, concernant l'architecture d'un classifieur. Dans le cas présent, l'étape 110 fixe pour le premier classifieur la valeur d'un paramètre de profondeur maximum et pour le deuxième classifieur la valeur d'un paramètre de nœuds, ces valeurs étant prédéterminées par l'utilisateur ou un opérateur. Lors d'une étape 112, chaque classifieur généré lors de l'étape 108, est ensuite soumis à un apprentissage avec 60% des données de la base de données source comprenant pour chaque état une multitude d'occurrences passées d'une panne de chaque ascenseur. Dans l'exemple présent, l'apprentissage automatique réalisé est un apprentissage supervisé, c'est-à- dire que chaque occurrence d'une panne est indiquée comme sortie à chaque classifieur et les valeurs des variables mesurées avant cette panne sont entrées comme données d'entrée. During a step 110, optional, it is possible to apply at least one parameter, called stress, concerning the architecture of a classifier. In the present case, the step 110 fixes for the first classifier the value of a parameter of maximum depth and for the second classifier the value of a parameter of nodes, these values being predetermined by the user or an operator. During a step 112, each classifier generated during step 108 is then subjected to a training with 60% of the data of the source database comprising for each state a multitude of past occurrences of a failure of each elevator. In the present example, the automatic learning performed is a supervised learning, that is, each occurrence of a failure is indicated as output to each classifier and the values of the variables measured before this failure are entered as data. input.
Une étape 114, optionnelle, permet de réaliser une validation croisée (« cross-validation » en anglais) de l'apprentissage automatique de chaque classifieur, par validation croisée de l'apprentissage de chaque classifieur, par exemple sur 20% des données de la base de données. Bien entendu, ces 20% sont différents des 60% de données utilisées lors de l'étape 112. Il s'agit ici d'une étape de test simple, permettant de vérifier la stabilité du classifieur. Si l'apprentissage n'est pas efficace, le classifieur ne sera pas stable et ne sera pas choisi pour la suite. An optional step 114 makes it possible to carry out a cross-validation of the automatic learning of each classifier, by cross-validation of the learning of each classifier, for example on 20% of the data of the classifier. database. Of course, these 20% are different from the 60% of data used in step 112. This is a simple test step, to check the stability of the classifier. If the learning is not effective, the classifier will not be stable and will not be chosen for the future.
La phase préalable 102 comprend ensuite une étape 116 de sélection du classifieur, qui fournit le meilleur résultat de prédiction. Pour ce faire, chacun
des trois classifieurs est testé sur les mêmes 20% des données de la base de données sou rce. Pour chacun des trois classifieurs, sont mesurées : The prior phase 102 then comprises a classifier selection step 116, which provides the best prediction result. To do this, everyone of the three classifiers is tested on the same 20% of the data in the database. For each of the three classifiers, are measured:
- une don née, dite de précision, relative à un taux d 'erreur lors de la détection des occurrences passées d 'un état de panne de chaque ascenseur : cette donnée de précision témoig ne des erreurs lors de la classification, telles q ue par exemple le fait de ne pas détecter u ne panne passée ou de détecter une panne alors q u'el le n'a pas eu lieu ; et - a gift, known as accuracy, relating to an error rate when detecting past occurrences of a failure state of each elevator: this precision data indicates errors during the classification, such as by example the fact of not detecting a past fault or detecting a failure while it has not occurred; and
- d 'une don née, dite de rappel, relative au nombre de pannes passées détectées. - a donation, called recall, relating to the number of past failures detected.
En fonction de la valeur de la donnée de précision et la valeur de la donnée de rappel pou r chaq ue classifieu r, le classifieur fou rnissant la meil leure performance de détection est sélectionnée . Based on the value of the precision data and the value of the recall data for each classifier, the classifier providing the best detection performance is selected.
Lors d 'une étape 118, le classifieur sélection né, par exemple le premier classifieur, est mémorisé comme meil leur classifieur. Les autres classifieurs sont également mémorisés, lors de cette étape 120. In a step 118, the selected classifier, for example the first classifier, is stored as their classifier. The other classifiers are also stored in this step 120.
Préférentiellement, les étapes 112- 116 d 'apprentissage sont réal isées en prenant en compte les valeurs des variables mesurées, le cas échéant calculées, dans une fenêtre temporelle g lissante, d 'une valeur prédéterminée telle q u'un mois ou 15 jours, remontant dans le passé, et dont la fin correspond au moment actuel ou au moment de la dernière mesure. Preferably, the learning steps 112 to 116 are performed taking into account the values of the measured variables, if necessary calculated, in a sliding time window, of a predetermined value such that a month or 15 days, back to the past, and the end of which corresponds to the current moment or the moment of the last measurement.
La valeur prédéterminée de la fenêtre temporelle peut être prédéterminée ou ajustée lors d 'une étape, par exemple réal isée en même temps ou avant l 'étape 104 de génération de la base de données source. The predetermined value of the time window may be predetermined or adjusted during a step, for example realized at the same time or before step 104 of generating the source database.
Le procédé 100 comprend , suite à la phase préalable 102, au moins une itération d 'une phase 120, dite de détection . The method 100 comprises, following the prior phase 102, at least one iteration of a phase 120, called detection.
La phase 120 comprend une étape 122 de mise à jour de la base de données source dans le temps. Cette étape 122 vient ajouter dans la timeline associée chaq ue ascenseur les dernières valeurs des dern ières variables mesurées, le cas échéant calculées, en association avec des données horaires indiquant le moment de la mesure pour chaque nouvelle valeur de chaque nouvel le variable. Phase 120 includes a step 122 of updating the source database over time. This step 122 adds in the timeline associated with each elevator the last values of the last measured variables, if any calculated, in association with hourly data indicating the time of measurement for each new value of each new variable.
La phase 120 comprend également une étape 124 de préd iction avec le meil leur classifieur en fonction des données de la base de données mise à
jour. Pour ce faire, les dernières valeurs ajoutées dans la base de données, préférentiellement avec les valeurs mémorisées dans la base de données préalablement à l'étape de mise à jour et se trouvant dans la fenêtre temporelle glissante, sont données en entrée au meilleur classifieur qui fournit une donnée de prédiction, signalant une occurrence future ou non d'un état de panne d'un ascenseur. Phase 120 also includes a prediction step 124 with the best classifier based on the database data set. day. To do this, the last values added in the database, preferably with the values stored in the database prior to the updating step and found in the sliding time window, are given as input to the best classifier which provides a prediction data, signaling a future occurrence or not of a state of failure of an elevator.
L'étape 124 de prédiction peut être réalisée après « n » étape de mise à jour, avec n≥l, ou selon une autre fréquence, par exemple temporelle, par exemple toutes les semaines, ou encore sur demande d'un opérateur. The prediction step 124 may be performed after "n" updating step, with n≥l, or at another frequency, for example temporal, for example every week, or at the request of an operator.
Lorsque la donnée de prédiction prévoit une occurrence d'une panne, le procédé selon l'invention peut comprendre une ou des étapes d'alerte sonore ou visuelle à destination d'un opérateur local ou distant. When the prediction data provides for an occurrence of a failure, the method according to the invention may comprise one or more audible or visual alerting steps intended for a local or remote operator.
Le procédé 100 de la FIGURE 1 comprend en outre au moins une itération d'une étape 126, dite de vérification, pour vérifier dans le temps que le meilleur classifieur reste celui qui, parmi tous les classifieurs générés et mémorisés à l'étape 118, fournit la meilleure performance de prédiction. Pour ce faire, cette étape 126 comprend une itération des étapes 112-116 décrites plus haut avec la base de données telle que mise à jour au moment de la réalisation de l'étape de vérification. The method 100 of FIG. 1 further comprises at least one iteration of a step 126, called verification step, to check in time that the best classifier remains the one which, among all the classifiers generated and stored in step 118, provides the best prediction performance. To do this, this step 126 includes an iteration of the steps 112-116 described above with the database as updated at the time of performing the verification step.
Cette étape de vérification est réalisée après « n » itérations de l'étape de prédiction ou de la phase de prédiction, avec n≥l, ou selon une autre fréquence, par exemple temporelle, par exemple toutes les semaines, ou encore sur demande d'un opérateur. Si le meilleur classifieur est toujours celui utilisé actuellement alors le procédé 100 reprend à l'étape 122 avec le meilleur classifieur actuel. Dans le contraire, le procédé reprend à l'étape 122 avec le nouveau meilleur classifieur, qui est mémorisé à la place de l'ancien meilleur classifieur. This verification step is performed after "n" iterations of the prediction step or the prediction phase, with n≥l, or at another frequency, for example temporal, for example every week, or on request of 'an operator. If the best classifier is still the one currently used then the method 100 resumes in step 122 with the best current classifier. In contrast, the process resumes at step 122 with the new best classifier, which is stored in place of the former best classifier.
La FIGURE 2 est une représentation schématique d'un exemple non limitatif d'un système selon l'invention, en particulier configuré pour la mise en œuvre du procédé 100 de la FIGURE 1.
Le système 200 de la FIGURE 2 comprend un module 202 de supervision pour gérer et coordonner le fonctionnement des différents modules du système à savoir : FIG. 2 is a schematic representation of a nonlimiting example of a system according to the invention, in particular configured for the implementation of the method 100 of FIG. 1. The system 200 of FIG. 2 comprises a supervision module 202 for managing and coordinating the operation of the various modules of the system, namely:
- un module 204, optionnel, configuré pour générer d'une base de données source 206, par réconciliation de différentes bases de données existantes et/ou par enrichissement de données, en particulier tel que décrit plus haut en référence aux étapes 104 et 106 ; a module 204, optional, configured to generate a source database 206, by reconciliation of various existing databases and / or by data enrichment, in particular as described above with reference to steps 104 and 106;
- un module 208 d'instanciation de plusieurs classifieurs, configuré pour créer une instance de plusieurs classifieurs, et éventuellement pour ajuster au moins un paramètre relatif à l'architecture d'au moins un classifieur, en particulier tel que décrit plus haut en référence aux étapes 108 et 110 ; a module 208 for instantiating several classifiers, configured to create an instance of several classifiers, and possibly for adjusting at least one parameter relating to the architecture of at least one classifier, in particular as described above with reference to the steps 108 and 110;
- au moins un module 210 d'entraînement, configuré pour réaliser l'apprentissage automatique de chaque classifieur, en particulier tel que décrit plus haut en référence à l'étape 112 ; at least one drive module 210, configured to carry out the automatic learning of each classifier, in particular as described above with reference to step 112;
- au moins un module 212, optionnel, de validation croisée, configuré pour réaliser une validation croisée de chaque classifieur, en particulier tel que décrit plus haut en référence à l'étape 114 ; - au moins un module 214, de sélection, configuré pour sélectionner le meilleur classifieur, en particulier tel que décrit plus haut en référence à l'étape 116 ; at least one optional cross-validation module 212 configured to perform cross-validation of each classifier, in particular as described above with reference to step 114; at least one selection module 214, configured to select the best classifier, in particular as described above with reference to step 116;
- au moins un module 216 de mise à jour, configuré pour mettre à jour la base de données source dans le temps, en particulier tel que décrit plus haut en référence à l'étape 122 ; at least one updating module 216, configured to update the source database in time, in particular as described above with reference to step 122;
- au moins un module 218 de prédiction, configuré pour fournir une donnée de prédiction concernant l'occurrence future d'un état, par exemple d'une panne, en particulier tel que décrit plus haut en référence à l'étape 124 ; et at least one prediction module 218, configured to provide prediction data concerning the future occurrence of a state, for example of a failure, in particular as described above with reference to step 124; and
- au moins un module 220 de vérification, configuré pour vérifier que le meilleur classifieur est toujours celui utilisé pour la prédiction, en particulier tel que décrit plus haut en référence à l'étape 124.
Bien que représenté de manière séparée sur la FIGURE 2, plusieurs modules, et en particulier tous les modules, peuvent être intégrés dans un unique module. at least one verification module 220, configured to verify that the best classifier is still the one used for the prediction, in particular as described above with reference to step 124. Although shown separately in FIG. 2, several modules, and in particular all modules, can be integrated in a single module.
Le système 200 peut être un ordinateur, un processeur, une puce électronique ou tout autre moyen configurable physiquement ou par logiciel pour réaliser les étapes du procédé selon l'invention. The system 200 can be a computer, a processor, an electronic chip or any other means that can be configured physically or by software to carry out the steps of the method according to the invention.
Les FIGURES 3-4 donnent une représentation schématique d'un exemple d'application très simplifié du procédé selon l'invention à des machines. FIGURES 3-4 give a schematic representation of an example of a very simplified application of the method according to the invention to machines.
L'exemple représenté sur les FIGURES 3-4 concerne quatre machine pour lesquelles deux variables sont mesurées, l'une correspondant à la température T° dans la machine et l'autre à la pression P dans la machine. The example shown in FIGURES 3-4 relates to four machines for which two variables are measured, one corresponding to the temperature T ° in the machine and the other to the pressure P in the machine.
Les valeurs des variables mesurées et remontées vers un serveur distant des machines, au moins une fois par jour, au travers d'un réseau de communication de type Internet. A chaque remontée, les valeurs mesurées des variables sont mémorisées dans un tableau, tel que le tableau 300 représenté sur la FIGURE 3. The values of the variables measured and reported to a remote machine server, at least once a day, through an Internet type communication network. At each ascent, the measured values of the variables are stored in a table, such as the table 300 shown in FIG. 3.
Dans le tableau 300, les valeurs mesurées des variables T° et P à un instant donné montrent que les quatre machines présentent des comportements différents. Les machines 1, 2 et 3 ont un fonctionnement normal et la machine 4 à un fonctionnement anormal signifiant une panne. Dans l'exemple présent, pour prédire le comportement de chaque machine dans le futur, une instance de deux classifieurs différents est créée, à savoir une instance d'un ciassifieur de type arbre de décision et une instance d'un ciassifieur de type kMeans. In Table 300, the measured values of variables T ° and P at a given moment show that the four machines exhibit different behaviors. The machines 1, 2 and 3 have normal operation and the machine 4 has an abnormal operation signifying a failure. In the present example, to predict the behavior of each machine in the future, an instance of two different classifiers is created, namely an instance of a decision tree type collider and an instance of a kMeans type collider.
A partir de nombreuses mesures des variables T° et P remontées dans le passé pour chaque machine, et l'état de fonctionnement passé, fonctionnement normal ou fonctionnement anormal de chaque machine, chaque ciassifieur subit : From many measurements T ° and P variables reported in the past for each machine, and the past operating status, normal operation or abnormal operation of each machine, each ciassifieur undergoes:
- un apprentissage avec une première partie, par exemple 60%, des valeurs remontées,
- puis une cross-val idation sur une deuxième partie, par exemple 20%, des valeurs remontées. an apprenticeship with a first part, for example 60%, of the values raised, - then a cross-validation on a second part, for example 20%, values reported.
Enfin, les deux classifieu rs sont testées su r une troisième partie, les 20% restant, des valeurs remontées pour déterminer le meilleur classifieur pour la prédiction d u comportement de chacun des q uatre machines. Finally, the two classifiers are tested on a third part, the remaining 20%, values ascertained to determine the best classifier for the prediction of the behavior of each of the four machines.
Dans un souci de simpl icité de description, dans le présent exemple, chacun des deux classifieurs créés est testé sur les valeurs ind iq uées dans le tableau 300. Le résultat obtenu est représenté sur la FIGU RE 4 pour chaque classifieur. Ainsi, le classifieur de type arbre de décision 402 permet de détecter la panne de la machine 4 et le fonctionnement normal des trois autres machines, alors q ue le classifieur de type kMeans 404 détecte un fonctionnement normal pour deux des machines et une panne pour les deux autres. For the sake of simplicity of description, in the present example, each of the two classifiers created is tested on the values indicated in Table 300. The result obtained is shown in Figure 4 for each classifier. Thus, the decision tree classifier 402 detects the failure of the machine 4 and the normal operation of the other three machines, while the kMeans 404 classifier detects normal operation for two of the machines and a failure for them. two others.
Par conséq uent, le meilleur classifieur parmi les deux classifieu rs testés est le classifieur de type arbre de décision q ui est sélectionnée et utilisé pour les prédictions futures concernant l'état de fonctionnement de ces q uatre machines. Therefore, the best classifier among the two classifiers tested is the decision tree classifier that is selected and used for future predictions about the operating status of these four machines.
L'exemple représenté sur les FIGU RES 3-4 est un exemple très simplifié, donné uniq uement à titre d 'ill ustration . Dans un cas réel, le nombre de variable est beaucoup pl us important, de l 'ord re d'un mil l ier de variables, et le nombre de machine est également plus important. Par conséq uent, la taille des classifieurs est aussi plus g rande q ue la tail le des classifieurs représentés sur la FIGU RE 4. The example shown in FIGS RES 3-4 is a very simplified example, given only as ill ustration. In a real case, the number of variables is much larger, by the order of a thousand variables, and the number of machines is also greater. Consequently, the size of the classifiers is also larger than the size of the classifiers shown in FIGU RE 4.
Bien sûr, l'invention n'est pas limitée aux exemples q ui viennent d 'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cad re de l 'invention .
Of course, the invention is not limited to the examples just described and many adjustments can be made to these examples without departing from the scope of the invention.
Claims
1. Procédé ( 100) de prédiction de la réalisation d'au moins un état que peut prendre un objet, avant que ledit état ne se réalise, à partir d'une base de données (206), dite source, mémorisant, pour au moins une occurrence passée dudit au moins un état, des valeurs d'au moins une variable relative audit objet, déterminées avant ladite occurrence dudit état, ledit procédé ( 100) comprenant les étapes suivantes : A method (100) of predicting the realization of at least one state that an object can take, before said state is realized, from a database (206), said source, storing, for at least one past occurrence of said at least one state, values of at least one variable relating to said object, determined before said occurrence of said state, said method (100) comprising the following steps:
- génération ( 108) d'au moins deux classifieurs selon deux algorithmes de classification de données différents, generating (108) at least two classifiers according to two different data classification algorithms,
- pour chacun desdits classifieurs, apprentissage automatique ( 112) sur une première partie de ladite base de données source (206), et for each of said classifiers, automatic learning (112) on a first part of said source database (206), and
- sélection ( 116), parmi lesdits classifieurs, d'un classifieur, dit meilleur classifieur, fournissant la meilleure performance de prédiction sur une deuxième partie de ladite base de données source (206), par comparaison des résultats fournis par chaque classifieur ; ledit procédé ( 100) comprenant en outre une phase ( 120), dite de détection, comprenant : selecting (116) among said classifiers a classifier, said best classifier, providing the best prediction performance on a second part of said source database (206), by comparing the results provided by each classifier; said method (100) further comprising a so-called detection phase (120) comprising:
- une mise à jour ( 122), dans le temps, de ladite base de données source avec au moins une nouvelle valeur de ladite variable, et an update (122) over time of said source database with at least one new value of said variable, and
- au moins une étape ( 124) de prédiction d'un état dudit objet, par ledit meilleur classifieur, à partir de ladite base de données source (206) mise à jour. at least one step (124) for predicting a state of said object, by said best classifier, from said updated source database (206).
2. Procédé ( 100) selon la revendication 1, caractérisé en ce qu'il comprend en outre au moins une itération d'une étape ( 126), dite de vérification, pour vérifier dans le temps que le meilleur classifieur reste celui qui, parmi tous les classifieurs générés, fournit la meilleure performance de prédiction, ladite étape de vérification ( 126) comprenant les étapes d'apprentissage ( 112) et de sélection ( 116) réalisée sur ladite base de données (206) mise à jour au moment de ladite itération de ladite étape de vérification ( 126) .
2. Method (100) according to claim 1, characterized in that it further comprises at least one iteration of a step (126), called verification, to check in time that the best classifier remains one which, among all classifiers generated, provides the best prediction performance, said verification step (126) comprising the learning (112) and selecting (116) steps performed on said database (206) updated at the time of said iteration of said verification step (126).
3. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape de sélection (116) du meilleur classifieur comprend : Method (100) according to any one of the preceding claims, characterized in that the selection step (116) of the best classifier comprises:
- une mesure, pour chaque classifieur : - a measure, for each classifier:
- d'une donnée, dite de précision, relative à un taux d'erreur lors de la détection des occurrences passées d'au moins un état, a piece of data, referred to as precision, relating to an error rate when detecting past occurrences of at least one state,
- d'une donnée, dite de rappel, relative au nombre d'occurrences passées, d'au moins un état, détectées par ledit classifieur ; la sélection du meilleur classifieur étant réalisée en fonction de ladite donnée de précision et/ou de ladite donnée de rappel. - A data, called recall, relating to the number of past occurrences, of at least one state, detected by said classifier; the selection of the best classifier being performed according to said precision data and / or said recall data.
4. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend en outre, après l'étape d'apprentissage automatique (112), une étape (114), dite de cross-validation, testant au moins un, en particulier chaque, classifieur, sur une troisième partie de ladite base de données source (126). 4. Method (100) according to any one of the preceding claims, characterized in that it further comprises, after the automatic learning step (112), a step (114), called cross-validation, testing at least one, in particular each, classifier, on a third portion of said source database (126).
5. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que, pour au moins un classifieur, l'étape de génération (108) comprend une étape (110) d'ajustement/d'entrée d'un paramètre relatif à l'architecture dudit classifieur, tel qu'un nombre maximum/minimum de nœuds et/ou une profondeur maximum/minimum dudit classifieur. Method (100) according to any one of the preceding claims, characterized in that, for at least one classifier, the generating step (108) comprises a step (110) of adjusting / entering a parameter relating to the architecture of said classifier, such as a maximum / minimum number of nodes and / or a maximum / minimum depth of said classifier.
6. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend, avant l'étape d'apprentissage automatique6. Method (100) according to any one of the preceding claims, characterized in that it comprises, before the automatic learning step
(112), une étape (104) de génération de ladite base de données source (126) par réconciliation d'au moins une base de données comprenant des valeurs d'au moins une variable relative audit objet, avec au moins une autre base de données comprenant des données relatives à au moins une occurrence passée d'au moins un état. (112), a step (104) of generating said source database (126) by reconciling at least one database comprising values of at least one variable relating to said object, with at least one other database data comprising data relating to at least one past occurrence of at least one state.
7. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la base de données source (126) mémorise :
- pour chaque valeur mesurée d'une variable au moins une donnée temporelle relative au moment de la mesure de ladite valeur, et7. Method (100) according to any one of the preceding claims, characterized in that the source database (126) stores: for each measured value of a variable, at least one temporal datum relating to the moment of measurement of said value, and
- pour chaque occurrence passée d'au moins un, en particulier de chaque état, une donnée temporelle relative au moment de ladite occurrence. for each occurrence passed by at least one, in particular of each state, a temporal datum relating to the moment of said occurrence.
8. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'au moins une en particulier chacune des étapes, en particulier l'étape d'apprentissage (112), et/ou l'étape de sélection (116), et/ou l'étape de prédiction (124), prend en compte des données sur une fenêtre temporelle glissante prédéterminée précédent le moment actuel. 8. Method (100) according to any one of the preceding claims, characterized in that at least one in particular each of the steps, in particular the learning step (112), and / or the selection step ( 116), and / or the prediction step (124), takes into account data on a predetermined sliding time window preceding the present moment.
9. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la base de données source (126) comprend : The method (100) of any one of the preceding claims, characterized in that the source database (126) comprises:
- au moins une donnée calculée en fonction d'une ou plusieurs données mesurées et d'une relation prédéterminée, at least one datum calculated as a function of one or more measured data and a predetermined relation,
- au moins une donnée, dite exogène, relative à un environnement dans lequel se trouve ledit objet cible. at least one so-called exogenous datum relating to an environment in which said target object is located.
10. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'au moins un classifieur est : 10. Process (100) according to any one of the preceding claims, characterized in that at least one classifier is:
- un arbre de décision, a decision tree,
- un support vecteur-machine, a vector-machine support,
- un algorithme de clustering, c'est-à-dire un algorithme de regroupement hiérarchique ou de partitionnement. a clustering algorithm, that is to say a hierarchical grouping or partitioning algorithm.
11. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que pour au moins un classifieur, l'étape d'apprentissage automatique (112) peut réaliser un apprentissage : 11. Method (100) according to any one of the preceding claims, characterized in that for at least one classifier, the automatic learning step (112) can perform an apprenticeship:
- supervisé, - supervised,
- non supervisé, - unsupervised,
- semi-supervisé, - semi-supervised,
- partiellement supervisé, - partially supervised,
- par renforcement, ou
par transfert. - by reinforcement, or by transfer.
12. Procédé ( 100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il est mis en œuvre pour la prédiction de la réalisation d'au moins un état pour plusieurs objets disposés sur un même site ou sur au moins deux sites distribués dans l'espace. 12. Method (100) according to any one of the preceding claims, characterized in that it is implemented for the prediction of the realization of at least one state for several objects arranged on the same site or on at least two sites distributed in space.
13. Procédé ( 100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il est mis en œuvre pour la prédiction d'un état de panne d'une machine ou d'un organe d'une machine. 13. Method (100) according to any one of the preceding claims, characterized in that it is implemented for the prediction of a state of failure of a machine or an organ of a machine.
14. Produit programme d'ordinateur comprenant des instructions mettant en œuvre toutes les étapes du procédé selon l'une quelconque des revendications précédentes, lorsqu'il est mis en œuvre ou chargé dans un appareil informatique. A computer program product comprising instructions implementing all the steps of the method according to any of the preceding claims, when implemented or loaded into a computer apparatus.
15. Système (200) comprenant des moyens configurés pour mettre en œuvre toutes les étapes du procédé selon l'une quelconque des revendications 1 à 13.
15. System (200) comprising means configured to carry out all the steps of the method according to any one of claims 1 to 13.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1554441A FR3036515B1 (en) | 2015-05-19 | 2015-05-19 | METHOD AND SYSTEM FOR PREDICTING THE REALIZATION OF A PREDETERMINED STATE OF AN OBJECT. |
PCT/EP2016/061138 WO2016184912A1 (en) | 2015-05-19 | 2016-05-18 | Method and system for predicting the realization of a predetermined state of an object |
Publications (1)
Publication Number | Publication Date |
---|---|
EP3298549A1 true EP3298549A1 (en) | 2018-03-28 |
Family
ID=54783692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP16729196.2A Withdrawn EP3298549A1 (en) | 2015-05-19 | 2016-05-18 | Method and system for predicting the realization of a predetermined state of an object |
Country Status (4)
Country | Link |
---|---|
US (1) | US20180129947A1 (en) |
EP (1) | EP3298549A1 (en) |
FR (1) | FR3036515B1 (en) |
WO (1) | WO2016184912A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3076267B1 (en) * | 2018-01-04 | 2020-01-17 | Safran Electronics & Defense | METHOD FOR DIAGNOSING A CONDITION OF WEAR OF AN AIRCRAFT PARKING BRAKE |
US10921777B2 (en) | 2018-02-15 | 2021-02-16 | Online Development, Inc. | Automated machine analysis |
DE102018125908A1 (en) * | 2018-10-18 | 2020-04-23 | Endress+Hauser Conducta Gmbh+Co. Kg | Method for determining a process variable with a classifier for selecting a measuring method |
US20210012194A1 (en) * | 2019-07-11 | 2021-01-14 | Samsung Electronics Co., Ltd. | Method and system for implementing a variable accuracy neural network |
US12056469B2 (en) * | 2021-07-16 | 2024-08-06 | International Business Machines Corporation | Autonomous generation of GRC programs |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014075108A2 (en) * | 2012-11-09 | 2014-05-15 | The Trustees Of Columbia University In The City Of New York | Forecasting system using machine learning and ensemble methods |
-
2015
- 2015-05-19 FR FR1554441A patent/FR3036515B1/en not_active Expired - Fee Related
-
2016
- 2016-05-18 WO PCT/EP2016/061138 patent/WO2016184912A1/en active Application Filing
- 2016-05-18 US US15/574,255 patent/US20180129947A1/en not_active Abandoned
- 2016-05-18 EP EP16729196.2A patent/EP3298549A1/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
US20180129947A1 (en) | 2018-05-10 |
FR3036515B1 (en) | 2019-01-25 |
WO2016184912A1 (en) | 2016-11-24 |
FR3036515A1 (en) | 2016-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016184912A1 (en) | Method and system for predicting the realization of a predetermined state of an object | |
EP0178964B1 (en) | Method of checking the value of a parameter | |
FR3082963A1 (en) | SYSTEM AND METHOD FOR EVALUATING AND DEPLOYING NON-SUPERVISED OR SEMI-SUPERVISED AUTOMATIC LEARNING MODELS | |
EP2376989B1 (en) | Identification of defects in an aircraft engine | |
WO2015145085A1 (en) | Method for assessing whether or not a measured value of a physical parameter of an aircraft engine is normal | |
EP3767467A1 (en) | Method and device for determining a performance index value for prediction of anomalies in a computer infrastructure from performance indicator values | |
WO2010061136A1 (en) | Detection of anomalies in an aircraft engine | |
FR3052273A1 (en) | PREDICTION OF TROUBLES IN AN AIRCRAFT | |
FR2816078A1 (en) | Machine or system monitoring using cumulative and empirical distribution norms, uses data comparison with stochastic processing model to provide quantitative and qualitative data about the system | |
CA2964815C (en) | Method and device for monitoring an aircraft engine vane wheel via balance position measurement | |
WO2014064396A2 (en) | System for monitoring a set of components of a device | |
EP3846087A1 (en) | Method and system for selecting a learning model within a plurality of learning models | |
WO2016071605A1 (en) | Tool for validating a system for monitoring an aircraft engine | |
FR2973902A1 (en) | METHOD FOR ANALYZING TROUBLES PRESENTED ON A PLATFORM AND SYSTEM THEREFOR | |
EP2966526A1 (en) | A method and a system for merging health indicators of a device | |
EP3767468A1 (en) | Method and device for determining a technical incident risk value in a computer infrastructure from performance indicator values | |
FR3105050A1 (en) | A method of controlling a screwdriver's screwing quality level, associated device and program implementing the method. | |
FR3035232A1 (en) | SYSTEM FOR MONITORING THE HEALTH CONDITION OF AN ENGINE AND ASSOCIATED CONFIGURATION METHOD | |
FR3062733A1 (en) | METHOD FOR MONITORING EQUIPMENT OF ELECTROMECHANICAL ACTUATOR TYPE | |
FR3046265A1 (en) | SYSTEM FOR MONITORING AN INDUSTRIAL INSTALLATION; ASSOCIATED CONFIGURATION AND MONITORING METHODS | |
EP3511781B1 (en) | Device and method of collecting, docketing, analysing as well as providing the results of the analysis of data relating to watch pieces | |
WO2016087770A1 (en) | Method for monitoring the operation of a turbomachine | |
EP2146188B1 (en) | Method for detecting a fault in an analogue sensor and detection device for implementing said method | |
FR3028117A1 (en) | METHOD FOR DIAGNOSING A PHOTOVOLTAIC SYSTEM | |
EP3846047A1 (en) | Method and system for identifying relevant variables |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
17P | Request for examination filed |
Effective date: 20171116 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
AX | Request for extension of the european patent |
Extension state: BA ME |
|
DAV | Request for validation of the european patent (deleted) | ||
DAX | Request for extension of the european patent (deleted) | ||
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN |
|
18D | Application deemed to be withdrawn |
Effective date: 20191203 |