[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102141391B1 - Failure data management method based on cluster estimation - Google Patents

Failure data management method based on cluster estimation Download PDF

Info

Publication number
KR102141391B1
KR102141391B1 KR1020190167744A KR20190167744A KR102141391B1 KR 102141391 B1 KR102141391 B1 KR 102141391B1 KR 1020190167744 A KR1020190167744 A KR 1020190167744A KR 20190167744 A KR20190167744 A KR 20190167744A KR 102141391 B1 KR102141391 B1 KR 102141391B1
Authority
KR
South Korea
Prior art keywords
failure
data
clustering
phenomenon
fault
Prior art date
Application number
KR1020190167744A
Other languages
Korean (ko)
Inventor
최진혁
전태현
김현승
Original Assignee
주식회사 한국가스기술공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한국가스기술공사 filed Critical 주식회사 한국가스기술공사
Priority to KR1020190167744A priority Critical patent/KR102141391B1/en
Application granted granted Critical
Publication of KR102141391B1 publication Critical patent/KR102141391B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/0227Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0221Preprocessing measurements, e.g. data collection rate adjustment; Standardization of measurements; Time series or signal analysis, e.g. frequency analysis or wavelets; Trustworthiness of measurements; Indexes therefor; Measurements using easily measured parameters to estimate parameters difficult to measure; Virtual sensor creation; De-noising; Sensor fusion; Unconventional preprocessing inherently present in specific fault detection methods like PCA-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/0227Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions
    • G05B23/0235Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions based on a comparison with predetermined threshold or range, e.g. "classical methods", carried out during normal operation; threshold adaptation or choice; when or how to compare with the threshold
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0275Fault isolation and identification, e.g. classify fault; estimate cause or root of failure

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

The present invention relates to a technology for recording and managing failure data occurring in facilities. A method for managing failure data for a target facility by a failure recording system collects failure indicator data in a situation where a failure has occurred for each function location to observe whether a failure has occurred with respect to the target facility, to match and store the failure indicator data with the failure history, causes, and types, extracts a plurality of predetermined feature values from the failure indicator data to calculate a degree of cluster for the failure indicator data, determines a level of clarity of the evaluation criteria for each failure in accordance with the calculated degree of cluster, judges whether the determined level of clarity falls within a predetermined threshold range, and induces reclassification of the corresponding phenomenon in accordance with the judgment result.

Description

군집 평가에 기반한 고장 데이터의 관리 방법{Failure data management method based on cluster estimation}Failure data management method based on cluster estimation

본 발명은 생산 및 운용 설비에서 발생하는 고장 데이터를 기록하는 기술에 관한 것으로, 특히 대상 설비의 상태를 나타내는 지표 데이터를 측정하여 군집 평가를 통해 고장을 재분류하는 고장 데이터의 관리 방법에 관한 것이다.The present invention relates to a technique for recording failure data occurring in production and operation facilities, and more particularly, to a method for managing failure data to re-classify the failure through cluster evaluation by measuring indicator data indicating the state of the target equipment.

상태의 감시 및 기록, 그에 따른 대상 설비 진단 기술은 설비의 이력을 누적시켜 현재 상태를 파악하고, 데이터 분석을 통해 설비의 유지보수 시점을 결정하는 등 설비 보전 활동과도 직결되어 있어 그 역할이 점차 중요해 질 뿐 아니라, 설비 보전 활동은 장기적인 운영을 위해 반드시 수반되어야 하는 필수 활동으로서 설비의 생산성뿐만 아니라 신뢰성 및 안정성을 높여주는 핵심 기술 분야로 각광받고 있다.The monitoring and recording of status, and the target facility diagnosis technology, are related to facility maintenance activities such as determining the current maintenance status by accumulating the history of equipment and determining the maintenance time of equipment through data analysis. In addition to being important, facility preservation activities are essential activities that must be carried out for long-term operation, and have been in the spotlight as a core technology area that increases not only the productivity of facilities but also reliability and stability.

예를 들어, 운용중인 기계 설비로부터 고장이 발생할 때에 가장 먼저 나타나는 현상의 상당수는 진동이다. 많은 문헌을 통해, 오래전부터 진동이 마멸(wear), 오동작(malfunction), 소음 및 구조적 손상과 같은 기계적인 결함 문제와 관련되어 주요한 증상으로 발생한다는 사실이 보고되었다. 기계에서 발생된 진동은 열화 과정을 거치면서 차츰 다른 부위로 전달되어 이차 진동을 발생시키거나 진동 에너지의 일부가 소음으로 발산하게 되기도 한다. 따라서 주기적으로 진동과 소음을 측정하여 기록하고 이를 분석함으로써 기계의 내부 상태를 파악하고 이상 여부 판단을 통해 치명적인 피해를 야기할 수 있는 기계적 결함을 조기에 예방할 수 있으며, 정비 전략 수립에 있어 중요한 정보들을 제공할 수 있다.For example, many of the first phenomena that occur when a failure occurs from an operating mechanical installation are vibrations. Throughout the literature, it has long been reported that vibration occurs as a major symptom associated with mechanical defect problems such as wear, malfunction, noise and structural damage. The vibration generated by the machine is gradually transferred to other parts during the deterioration process to generate secondary vibrations, or some of the vibrational energy is emitted as noise. Therefore, by periodically measuring and recording vibrations and noises and analyzing them, it is possible to identify the internal condition of the machine and to prevent mechanical defects that can cause fatal damages early by determining abnormalities, and provide important information in establishing maintenance strategies. Can provide.

이와 같이, 최근 들어 산업 현장에서는 기계 설비의 건전성을 나타내는 다양한 지표 데이터를 감시하고, 측정된 지표 데이터를 이용하여 발견된 고장의 원인을 진단(diagnostics)하며, 적절한 설비 보전 활동을 통해 기계의 정지 기간에 손실되는 막대한 비용(down-time cost)을 절약하려는 노력이 지속적으로 시도되고 있다. 이하에서 제시되는 선행기술문헌은 공작 기계에서 발생하는 고장의 유형을 분류하여 구조화한 후, 고장을 진단하기 위한 일련의 검사 절차를 제안하였다.As described above, in recent years, industrial sites monitor various indicator data indicating the health of mechanical equipment, diagnose the cause of the failure using the measured indicator data, and stop the machine through proper equipment maintenance activities. Efforts are being made to reduce the cost of down-time. The prior art documents presented below suggested a series of inspection procedures for diagnosing failures after classifying and structuring the types of failures occurring in the machine tool.

한편, 고장의 유형을 분류함에 있어서는 해당 분야에서 많은 경험을 쌓은 숙련자들에 의해 분류 기준을 수립하고, 수립된 분류에 따라 고장 데이터를 측정하여 기록하는 것이 고장 데이터 관리의 일반적인 양상이었다. 그러나, 고장 진단을 수행하는 정비자가 고장을 기록하는 상황에서 계량화된 고장 데이터를 획득하기 위해서는 고장을 미리 정의하고 고장 카테고리 목록에서 발생된 고장을 선택하는 시스템을 사용한다. 이러한 시스템은 사람의 행위를 기록하는 시스템으로서 사람마다 선택의 기준이 다르거나 애매한 경우에 축적되는 데이터가 정규성을 띄지 않을 가능성이 높아지고, 결국 정규성을 띄지 않는 데이터로 인한 분석은 결과에 악영향을 미칠 수 있다.On the other hand, in classifying the types of faults, it is a general aspect of fault data management that the classification criteria are established by skilled workers who have a lot of experience in the field, and the fault data is measured and recorded according to the established classification. However, in order to obtain quantified failure data in a situation in which a maintenance person performing a failure diagnosis records a failure, a system is used in which a failure is predefined and a failure is selected from a failure category list. Such a system is a system for recording the behavior of a person, and it is highly likely that the accumulated data will not be normal when the selection criteria are different or ambiguous, and in the end, the analysis caused by the data that is not normal may adversely affect the results. have.

따라서, 사람의 행위에서 데이터로 변환하는 시스템은 주기적으로 데이터의 카테고리가 제대로 정의되어 있는지를 평가하여 데이터의 정규성을 개선하는 기술적 수단이 요구된다.Therefore, a system for converting human behavior to data periodically needs technical means to evaluate whether the categories of data are properly defined and improve the normality of data.

한국특허공개공보 제2006-0077814호, "공작기계의 고장 진단 시스템 및 방법"Korean Patent Publication No. 2006-0077814, "Diagnostic system and method for machine tools"

본 발명이 해결하고자 하는 기술적 과제는, 종래의 기술들이 현재 발생한 고장을 선택하여 기록하는 경우 사람마다 선택의 기준이 상이하거나 모호한 관계로 고장 기록 시스템 내에 축적되는 데이터가 정규성을 잃게 되는 문제를 해결하고, 고장 기록 시스템 내에 미리 정의된 고장 카테고리가 부적절하거나 또는 시간의 흐름에 따라 고장 카테고리의 유효성을 잃어버리는 상황이 발생하는 한계를 극복하고자 한다.The technical problem to be solved by the present invention is to solve the problem that data accumulated in the failure recording system loses its normality due to different or ambiguous selection criteria for each person when conventional technologies select and record the currently occurring failure. In order to overcome the limitation, a situation in which a predefined failure category in the failure recording system is inappropriate or loses the effectiveness of the failure category over time.

상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 적어도 하나의 프로세서(processor)와 데이터 저장 수단을 구비하는 고장 기록 시스템이 대상 설비에 대한 고장 데이터를 관리하는 방법은, (a) 고장 기록 시스템이 대상 설비에 관하여 고장 여부를 관찰하고자 하는 기능 위치별로 고장이 발생한 상황에서의 고장 지표 데이터를 수집하여 고장 이력, 원인 및 유형과 함께 매칭(matching)하여 저장하는 단계; (b) 상기 고장 기록 시스템이 상기 고장 지표 데이터로부터 미리 설정된 복수 개의 특징값을 추출하여 상기 고장 지표 데이터에 대한 군집도를 산출하는 단계; (c) 상기 고장 기록 시스템이 산출된 상기 군집도에 따라 각 고장에 대한 평가 기준의 명확도 수준을 결정하는 단계; (d) 상기 고장 기록 시스템이 결정된 상기 명확도 수준이 미리 정의된 임계 범위에 속하는지 여부를 판단하는 단계; 및 (e) 상기 고장 기록 시스템이 판단 결과에 따라 해당하는 고장 현상을 '유지', '분리', 및 '병합' 중 어느 하나의 방식으로 재분류하도록 유도하는 단계;를 포함한다.In order to solve the above technical problem, a method for managing failure data for a target facility by a failure recording system including at least one processor and data storage means according to an embodiment of the present invention includes: (a) failure Collecting, by the recording system, failure indicator data in a situation where a failure occurs for each functional location to observe whether the equipment has a failure, matching and storing the failure history, the cause and the type together; (b) the failure recording system extracting a plurality of preset feature values from the failure indicator data to calculate a clustering degree for the failure indicator data; (c) determining a level of clarity of an evaluation criterion for each failure according to the clustering in which the failure recording system is calculated; (d) the failure recording system determining whether the determined level of clarity falls within a predefined threshold range; And (e) inducing the failure recording system to reclassify the corresponding failure phenomenon in any one of'maintenance','separation', and'merge' according to the determination result.

일 실시예에 따른 고장 데이터의 관리 방법에서, 고장 지표 데이터를 수집하여 고장 이력, 원인 및 유형과 함께 매칭하여 저장하는 상기 (a) 단계는, (a1) 미리 정의된 고장 현상의 유형 중에서 실제의 고장에 대응하는 고장 현상을 선택받는 단계; (a2) 선택된 상기 고장 현상에 해당하는 설비의 진동, 소음, 온도, 유량, 및 압력 중 적어도 하나를 포함하여 기능의 성능을 나타내는 상태 데이터를 저장하고, 선택된 상기 고장 현상과 매칭하는 단계; 및 (a3) 설비의 상태 데이터 외에 고장이라고 판단한 근거가 되는 정보를 저장하고, 선택된 상기 고장 현상과 매칭하는 단계;를 포함할 수 있다.In the method of managing the failure data according to an embodiment, the step (a) of collecting the failure indicator data and matching the failure history, the cause, and the type, and storing the (a1) is actually performed among the types of the predefined failure phenomenon. Selecting a failure phenomenon corresponding to the failure; (a2) storing state data indicating performance of a function including at least one of vibration, noise, temperature, flow rate, and pressure of a facility corresponding to the selected failure phenomenon, and matching the selected failure phenomenon; And (a3) storing, in addition to the state data of the facility, information that is the basis for determining the failure, and matching the selected failure phenomenon.

일 실시예에 따른 고장 데이터의 관리 방법에서, 고장 지표 데이터에 대한 군집도를 산출하는 상기 (b) 단계는, (b1) 상기 고장 지표 데이터에 대하여 소정 주파수 대역을 분리하고, 시간 영역을 주파수 영역으로 변환하며, 시간 영역에서 송신파를 제외한 원 신호를 추출하기 위한 포락선 분석을 수행함으로써, 신호 처리를 통해 데이터를 정형화하는 단계;를 더 포함함으로써 정형화된 고장 지표 데이터로부터 복수 개의 특징값을 추출할 수 있다.In the method of managing failure data according to an embodiment, the step (b) of calculating a clustering degree of the failure indicator data includes: (b1) separating a predetermined frequency band from the failure indicator data and time domain in the frequency domain. Converting to and performing envelope analysis for extracting the original signal excluding the transmission wave in the time domain, shaping the data through signal processing; further comprising extracting a plurality of feature values from the standardized failure indicator data Can.

일 실시예에 따른 고장 데이터의 관리 방법에서, 고장 지표 데이터에 대한 군집도를 산출하는 상기 (b) 단계는, (b2) 미리 설정된 복수 개의 특징값에 대해 분류의 군집성 및 차별성을 기준으로 각 특징의 민감도를 측정하고, 측정된 민감도가 기준치 이상인 특징만을 고장 진단을 위한 특징값으로 선택하는 단계;를 더 포함할 수 있다. 또한, 고장 지표 데이터에 대한 군집도를 산출하는 상기 (b) 단계는, (b3) 선택된 모든 특징값의 범위와 분산을 일정한 크기로 조정하는 스케일링(scaling)을 수행하는 단계;를 더 포함할 수 있다.In the method of managing failure data according to an embodiment, the step (b) of calculating the clustering degree of the failure indicator data includes (b2) each feature based on clustering and differentiation of classification for a plurality of preset feature values It may further include the step of measuring the sensitivity of, and selecting only the characteristic whose measured sensitivity is greater than or equal to a reference value as a feature value for diagnosing a failure. In addition, the step (b) of calculating the clustering degree of the failure indicator data may further include (b3) performing scaling to adjust the range and variance of all selected feature values to a constant size. have.

일 실시예에 따른 고장 데이터의 관리 방법에서, 각 고장에 대한 평가 기준의 명확도 수준을 결정하는 상기 (c) 단계는, 산출된 상기 군집도에 기초하여 하나의 고장에서 특징값을 클러스터링(clustering)함으로써 클러스터링 차별성을 평가하는 단계;를 포함할 수 있다.In the method of managing failure data according to an embodiment, the step (c) of determining the level of clarity of the evaluation criteria for each failure includes clustering feature values in one failure based on the calculated clustering degree. ) By evaluating clustering differentiation.

또한, 명확도 수준이 미리 정의된 임계 범위에 속하는지 여부를 판단하는 상기 (d) 단계는, (d2) 평가된 상기 클러스터링 차별성을 기준으로 해당 고장 유형의 명확도와 미리 정의된 제 1 임계 범위를 비교함으로써 고장 현상의 분리 필요 여부를 판단하는 단계; 및 (d2) 새롭게 제시된 기능 위치 및 관찰 현상에 따라 생성된 의심 고장 리스트 내에 존재하는 복수 개의 의심 고장 항목을 교차 비교하여 2개의 해당 고장 항목의 군집성과 차별성을 기준으로 고장 항목들간의 명확도와 미리 정의된 제 2 임계 범위를 비교함으로써 고장 현상의 병합 필요 여부를 판단하는 단계;를 포함할 수 있다.Further, the step (d) of determining whether the level of clarity falls within a predefined threshold range includes (d2) the clarity of the failure type and the first predefined threshold range based on the evaluated clustering differentiation. Determining whether a fault phenomenon is necessary by comparing; And (d2) cross-comparison a plurality of suspected faulty items in the list of suspected faults generated according to the newly proposed function location and observation phenomenon, and define in advance the clarity and clarity between the faulty items based on the clustering and differentiation of the corresponding faulty items It may include; determining whether to merge the failure phenomenon by comparing the second threshold range.

나아가, 고장 현상을 재분류하도록 유도하는 상기 (e) 단계는, (e1) 고장 현상의 '분리'가 필요하다고 판단된 경우 평가된 상기 클러스터링 차별성을 기준으로 해당 고장 항목을 2개로 분리하는 단계; (e2) 고장 현상의 '병합'이 필요하다고 판단된 경우 평가된 상기 클러스터링 차별성을 기준으로 2개의 해당 고장 항목을 1개로 병합하는 단계; 또는 (e3) 고장 현상이 '분리' 및 '병합' 중 어느 것도 필요하지 않다고 판단된 경우 해당 고장 항목을 유지하는 단계; 중, 어느 하나의 방식을 선택적으로 수행함으로써 고장 현상을 재분류하도록 유도할 수 있다.Further, the step (e) of inducing the re-classification of the failure phenomenon may include: (e1) separating the corresponding failure item into two based on the evaluated clustering discrimination when it is determined that'separation' of the failure phenomenon is necessary; (e2) merging two corresponding failure items into one based on the evaluated clustering differentiation when it is determined that'merging' of the failure phenomenon is necessary; Or (e3) maintaining a corresponding failure item when it is determined that neither the'separation' nor the'merge' is necessary. Among them, it is possible to induce a failure phenomenon to be reclassified by selectively performing either method.

한편, 이하에서는 상기 기재된 고장 데이터의 관리 방법들을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.Meanwhile, hereinafter, a recording medium readable by a computer recording a program for executing the above-described failure data management methods on a computer is provided.

본 발명의 실시예들은 고장의 특성을 나타내는 지표 데이터의 특징값을 추출하고 추출된 특징값 분포의 군집성을 척도로 하여 고장의 특징이 정규성을 위배할 경우 고장의 재분류를 유도함으로써, 특징이 불명확한 고장으로 발생할 진단 오류를 감소시키고 고장 데이터가 적용되는 분석 결과의 신뢰도를 향상시킨다.In the embodiments of the present invention, the feature value is unclear by extracting the feature value of the indicator data indicating the feature of the failure and inducing the reclassification of the failure when the feature of the failure violates the normality by measuring the clustering of the extracted feature value distribution. It reduces the diagnostic error caused by one failure and improves the reliability of the analysis results to which the failure data is applied.

도 1은 본 발명의 실시예들이 구현되는 고장 기록 시스템이 설비 고장에 대해 기록하고, 고장 기록으로부터 진단에 따른 유지 보수를 수행하는 전체적인 과정을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 고장 데이터의 군집 평가에 기반하여 대상 설비의 고장 데이터를 관리하는 고장 기록 시스템을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 고장 데이터의 군집 평가에 기반하여 대상 설비의 고장 데이터를 관리하는 방법을 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 도 3의 고장 데이터의 관리 방법에서 고장 지표 데이터를 수집하여 저장하는 과정을 보다 구체적으로 도시한 흐름도이다.
도 5는 고장 현상의 카테고리를 선택받는 상황을 예시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 도 3의 고장 데이터의 관리 방법에서 군집도를 산출하는 과정을 보다 구체적으로 도시한 흐름도이다.
도 7 내지 도 9는 수집된 고장 지표 데이터에 대한 신호 처리 과정을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 도 3의 고장 데이터의 관리 방법에서 명확도 수준을 고려하여 고장 현상을 재분류하는 과정을 보다 구체적으로 도시한 흐름도이다.
도 11은 1개의 고장 유형 내에서 고장 현상의 분리가 필요한지 여부를 판단하는 과정을 설명하기 위한 도면이다.
도 12는 2개의 고장 유형 간에 고장 현상의 병합이 필요한지 여부를 판단하는 과정을 설명하기 위한 도면이다.
1 is a view for explaining the overall process of performing a maintenance according to the diagnosis, record the failure of the failure record system is implemented in the embodiments of the present invention, the failure record.
2 is a block diagram showing a failure recording system for managing failure data of a target facility based on a cluster evaluation of failure data according to an embodiment of the present invention.
3 is a flowchart illustrating a method of managing failure data of a target facility based on a cluster evaluation of failure data according to an embodiment of the present invention.
4 is a flowchart illustrating in more detail the process of collecting and storing the failure indicator data in the method of managing the failure data of FIG. 3 according to an embodiment of the present invention.
5 is a diagram illustrating a situation in which a category of a failure phenomenon is selected.
6 is a flowchart illustrating in more detail the process of calculating the clustering degree in the method of managing fault data of FIG. 3 according to an embodiment of the present invention.
7 to 9 are diagrams for explaining a signal processing process for collected failure indicator data.
10 is a flowchart more specifically illustrating a process of reclassifying a failure phenomenon in consideration of a level of clarity in the method of managing the failure data of FIG. 3 according to an embodiment of the present invention.
11 is a view for explaining a process for determining whether separation of a failure phenomenon is necessary within one failure type.
12 is a diagram for explaining a process of determining whether merging of failures is necessary between two types of failures.

본 발명의 실시예들을 설명하기에 앞서, 본 발명의 실시예들이 채택하고 있는 기술적 수단을 개괄적으로 소개한 후 구체적인 구성 요소들을 순차적으로 기술하도록 한다.Prior to describing the embodiments of the present invention, the technical means adopted by the embodiments of the present invention are introduced in general, and then specific components are sequentially described.

설비의 고장 데이터는 설비의 유지 보수 및 자산 관리에 유용하게 활용된다. 예를 들어, 과거 기록된 고장 사건의 발생 시간 분포로부터 대표값을 산출하여 고장의 발생 시간을 예정할 수 있다. 또한 설비의 건전성과 기능의 무결성을 판단하고 설비의 수명을 예측할 수 있는 기계학습(machine learning) 모델을 도출하기 위해 고장 데이터를 지도학습(supervised learning)의 결과(labeling) 데이터로 활용할 수 있다. Equipment failure data is useful for equipment maintenance and asset management. For example, a representative value may be calculated from a distribution of occurrence times of failure events recorded in the past to schedule occurrence times of failures. In addition, failure data can be used as labeling data of supervised learning to derive a machine learning model that can determine the integrity of facilities and functional integrity and predict the life of the equipment.

이와 같은 고장 데이터를 획득하기 위해, '정비자(고장 진단을 수행하는 자)'는 설비 고장이 발생했을 때, 미리 정의된 고장의 특성과 설비의 현재 상황과 비교하여 어떤 고장이 발생했는지를 진단하여 결과를 기록한다. 고장 진단 결과를 기록하는 절차는 크게 두 단계로 구성될 수 있다.In order to acquire such failure data, the'maintenant (one who performs the fault diagnosis)' diagnoses what kind of failure occurred by comparing the characteristics of the predefined failure and the current situation of the equipment when the equipment failure occurs. And record the results. The procedure for recording the fault diagnosis result can be largely composed of two steps.

첫째, 설비의 '운전자' 또는 '관찰자'가 고장을 관찰한 시점 이후로 고장이 관찰된 '기능 위치'와 '관찰 현상'을 '정비자'에게 통지한다. 둘째, 통지된 '기능 위치'와 '관찰 현상'에 따라 결정되는 '의심 고장' 리스트는 각각의 '의심 고장'에 해당하는 검사(test)의 실행 결과에 따라 리스트에서 제거되거나 또는 '고장 현상'으로 확정될 수 있다.First, the'operator' or'observer' of the facility notifies the'maintenant' of the'functional location' and'observation phenomenon' in which the failure has been observed since the point of view of the failure. Second, the'suspect failure' list determined according to the notified'function location' and'observation phenomenon' is removed from the list or the'failure phenomenon' according to the test execution result corresponding to each'suspect failure' It can be confirmed as.

그러나, 앞서 살펴본 바와 같이 고장을 기록하는 상황에서 미리 정의된 고장 카테고리 목록에서 현재 발생한 고장을 선택하여 기록하는 경우, 사람마다 선택의 기준이 상이하거나 모호한 관계로 고장 기록 시스템 내에 축적되는 데이터가 정규성을 잃게 되는 점이 문제로 지적되었다. 또한, 고장 기록 시스템 내에 미리 정의된 고장 카테고리가 정확하게 정의되어 있는지, 나아가 시간의 흐름에 따라 앞서 정의되었던 고장 카테고리가 여전히 유효한지에 관한 의문이 제기된다. 왜냐하면, 고장 데이터의 누적에 따라 고장 카테고리의 분류가 달라져야 하는 경우가 발생하였기 때문이다.However, as described above, in the situation of recording a fault, when the current fault is selected and recorded from a list of predefined fault categories, data accumulated in the fault recording system is normalized due to different or ambiguous selection criteria for each person. The problem was pointed out. In addition, the question arises as to whether the predefined failure category is correctly defined in the failure recording system, and further, over time, whether the previously defined failure category is still valid. This is because there are cases where the classification of the failure category needs to be changed according to the accumulation of failure data.

따라서, 이하에서 기술되는 본 발명의 실시예들은 고정된 형태의 고장 카테고리를 사용하는 것이 아니라, 고장을 기록할 때 설비의 상태를 확인할 수 있는 지표 데이터를 같이 수집하여 과거에 기록된 고장별로 지표 데이터의 군집도를 평가하여 기준치(임계 범위)에 미치지 못하는 조건에서 고장의 재분류/재정의의 필요성을 제기한다. 같은 고장 내에서 차별성을 보이는 특징값을 찾아 고장의 분리를 유도하거나, 또는 서로 다른 고장 간에 군집성을 보이는 집합을 찾아 고장의 병합을 유도하는 기술적 수단을 제안하고자 한다.Therefore, the embodiments of the present invention described below do not use a fixed type of failure category, but also collects indicator data to check the state of the facility when recording a failure, and collects indicator data for each failure recorded in the past. Evaluate the clustering level of and raise the need for re-classification/re-definition of failures under conditions that do not meet the threshold (critical range). We would like to propose a technical means to find the feature values that show differentiation within the same failure and induce the separation of the failures, or to find the aggregates showing different clusters between different failures and induce the merging of failures.

이하에서는 도면을 참조하여 본 발명의 실시예들을 구체적으로 설명하도록 한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 덧붙여, 명세서 전체에서, 어떤 구성 요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, in the following description and attached drawings, detailed descriptions of well-known functions or configurations that may obscure the subject matter of the present invention are omitted. In addition, throughout the specification,'comprising' a component means that other components may be further included rather than excluding other components, unless otherwise stated.

본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms “include” or “have” are intended to indicate that a feature, number, step, action, component, part, or combination thereof is described, and that one or more other features or numbers are present. It should be understood that it does not preclude the existence or addition possibility of steps, actions, components, parts or combinations thereof.

특별히 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 이하에서는 구현 및 모의 실험의 관점에서 제안된 고장 진단 방법을 LNG 설비에 적용하여 검증하였으나, 이는 단지 예시를 위한 것으로서 대상 설비가 이에 제한되는 것이 아님은 당연하다.Unless specifically defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms, such as those defined in a commonly used dictionary, should be interpreted as meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. . In the following, the proposed failure diagnosis method was verified by applying it to the LNG facility from the viewpoint of implementation and simulation, but this is for illustration only, and it is natural that the target facility is not limited thereto.

본 발명의 실시예들에 따른 고장 진단 시스템이 구현되는 환경에서는, 우선 설비의 고장을 정의하여 고장이 났을 때 어떤 고장이 났는지를 기록한다. 과거 고장 발생 시간의 분포도로부터 대표값을 산출하여 고장의 발생 시간을 예정할 수 있다. 또한, 지표 데이터와 고장 정보를 활용하여 지표 데이터로부터 설비의 상태를 진단할 수 있는 기계학습(machine learning) 모델을 지도 학습을 활용하여 산출할 수 있다. 이러한 지표 데이터는, 예를 들어, 진동, 온도, 압력, 설비 작동시간 등 설비의 상태를 나타낼 수 있는 데이터를 활용할 수 있다.In an environment in which a fault diagnosis system according to embodiments of the present invention is implemented, first, a fault of a facility is defined and a fault is recorded when a fault occurs. The occurrence time of the failure can be scheduled by calculating a representative value from the distribution diagram of the past failure occurrence time. In addition, a machine learning model capable of diagnosing the condition of a facility from the indicator data using the indicator data and the failure information may be calculated using supervised learning. For the indicator data, for example, data that can indicate the state of the facility, such as vibration, temperature, pressure, and operation time of the facility, may be used.

고장을 기록할 때에는 설비의 상태를 확인할 수 있는 지표 데이터를 같이 수집하여 과거에 기록된 고장별로 지표 데이터의 군집도를 평가하여 기준치(임계 범위)에 미치지 못하는 조건에서 고장의 재분류/재정의의 필요성을 검사함으로써, 하나의 고장 내에서 차별성을 보이는 특징값에 대해 고장의 분리를 유도하거나, 또는 2개의 고장 간에 군집성을 보이는 집합을 찾아 고장의 병합을 유도한다.When recording a failure, the indicator data to check the condition of the equipment is collected together, and the clustering of the indicator data is evaluated for each failure recorded in the past, and the need for reclassification/re-definition of the failure under conditions that do not reach the standard value (critical range) By inspecting, we induce the separation of failures for feature values that show differentiation within one failure, or find a set that shows clustering between two failures and induce mergers of failures.

또한, 고장을 기록할 때에는 관찰 현상에 따른 의심 고장 리스트를 보여주고 의심 고장을 하나씩 제거하는 과정을 통해 과거의 기록된 고장의 지표 데이터로부터 특징값을 추출하여 특징값의 군집도가 높은 순서대로 의심 고장 리스트를 재배열 한다. 이러한 특징값은, 예를 들어, 데이터의 평균, 분산, 모멘트, 엔트로피 중 적어도 하나를 사용할 수 있다. 또한, 군집도 평가는 같은 고장이라 판단된 특징값의 상대적인 거리의 평균으로 계산할 수 있다.In addition, when recording a fault, a list of suspected faults according to the observed phenomenon is shown, and the feature values are extracted from the index data of past recorded faults through the process of removing the suspected faults one by one. Rearrange the fault list. For this feature value, for example, at least one of the average, variance, moment, and entropy of the data can be used. In addition, the clustering evaluation can be calculated as the average of the relative distances of feature values determined to be the same failure.

특징값의 분포가 밀집되어 있는 고장은 고장을 판단할 때 명확한 특징이 있다는 것을 의미한다. 따라서, 이상의 재배열된 의심 고장 리스트에서 특징이 명확한 고장순으로 확인이 이루어지므로 진단의 정확성을 높이고 소요 시간을 단축시킬 수 있다.A failure in which the distribution of feature values is concentrated means that there is a clear characteristic when determining the failure. Therefore, since the verification is performed in the order of specific faults in the rearranged suspected fault list, the accuracy of diagnosis and the time required can be shortened.

도 1은 본 발명의 실시예들이 구현되는 고장 기록 시스템이 설비 고장에 대해 기록하고, 고장 기록으로부터 진단에 따른 유지 보수를 수행하는 전체적인 과정을 설명하기 위한 도면이다. 도 1에 표기된 용어들의 구체적인 의미는 다음의 표 1을 통해 보다 정확하게 확인할 수 있다.1 is a view for explaining the overall process of performing a maintenance according to the diagnosis, record the failure of the failure record system is implemented in the embodiments of the present invention, the failure record. The specific meanings of the terms indicated in FIG. 1 can be confirmed more accurately through Table 1 below.

Figure 112019129697772-pat00001
Figure 112019129697772-pat00001

도 1과 표 1을 함께 참조하면, 최초에 기능 위치 및 고장 유형을 매칭하여 고장에 관한 지표 데이터와 함께 입력받는다(110). 입력 과정에서는 과거에 기록된 고장별로 지표 데이터의 군집도를 평가하여 기준치(임계 범위)에 미치지 못하는 경우 고장의 재분류를 수행하게 된다. 그런 다음, 확인(verification) 과정을 통해 의심 고장 리스트를 독출하고, 각 고장 항목을 검사하여 제거하거나(exclude) 확정한다(figure out)(120). 이제, 점검(inspection) 과정을 통해 앞서 확정된 의심 고장 리스트에 해당하는 체크 리스트(check list)를 점검하여 손상 기구를 파악한다(130). 즉, 확인 과정에서 확인된 고장(verified failure)에 대해 손상 기구를 파악하게 되는데, 확인된 고장은 '기능 위치' 및 '고장 유형'의 순서쌍으로 구성될 수 있다. 이상의 과정을 통해 고장 진단이 완료되며, 본 발명의 실시예들은 상기된 과정 중 고장에 관한 지표 데이터를 수집하여 기록하는 과정(110)에 집중하고 있다.Referring to FIG. 1 and Table 1 together, the function location and the type of the fault are first matched and input together with the indicator data on the fault (110). In the input process, the clustering of indicator data is evaluated for each failure recorded in the past, and if it does not reach the reference value (threshold range), the failure is reclassified. Then, a list of suspected faults is read through a verification process, and each faulty item is examined to exclude or confirm (120). Now, through the inspection (inspection) process, the check list corresponding to the previously determined suspect failure list is checked to identify the damage mechanism (130). That is, the damage mechanism is identified for the identified failure in the verification process, and the identified failure may be composed of a sequence pair of'functional location' and'fault type'. Fault diagnosis is completed through the above process, and the embodiments of the present invention focus on the process 110 of collecting and recording indicator data related to a fault among the above-described processes.

한편, 고장난 손상 기구가 파악되었다면, 해당 기구에 대해 미리 정의된 조치 사항에 따라 정비가 이루어진다(140). 마지막으로 정비가 제대로 수행되었는지에 관한 작동 검사를 통해 최종적인 품질을 검증하게 된다(150).On the other hand, if a broken damage mechanism is identified, maintenance is performed according to predefined measures for the mechanism (140). Finally, the final quality is verified through an operation check on whether maintenance is properly performed (150).

도 2는 본 발명의 일 실시예에 따른 고장 데이터의 군집 평가에 기반하여 대상 설비의 고장 데이터를 관리하는 고장 기록 시스템(200)을 도시한 블록도이다.2 is a block diagram showing a failure recording system 200 for managing failure data of a target facility based on a cluster evaluation of failure data according to an embodiment of the present invention.

먼저 대상 설비로부터 고장 여부를 관찰하고자 하는 기능 위치별로 고장이 발생한 상황에서의 고장 지표 데이터를 수집하여 고장 이력, 원인 및 유형과 함께 매칭(matching)하여 입력부(210)를 통해 입력받는다. 이러한 지표 데이터는 고장 원인을 파악할 수 있는 선행 지표로서, 이후 고장 진단의 근거가 되는 원시 데이터(raw data)에 해당한다. 수집된 지표 데이터는 고장 기록 시스템(200)의 데이터 저장 수단인 저장부(230)에 저장될 수 있다.First, the failure indicator data in a situation where a failure occurs is collected by a function location to be observed for failure from the target facility, and matched together with the failure history, cause, and type, and received through the input unit 210. This indicator data is a leading indicator that can identify the cause of the failure, and corresponds to raw data that is the basis of the failure diagnosis. The collected indicator data may be stored in the storage unit 230 which is a data storage means of the failure recording system 200.

입력된 지표 데이터는 데이터 처리의 관점에서 디지털 신호로 관리되는 것이 바람직하며, 적어도 하나의 프로세서(processor)(250)를 통해 일련의 고장 기록 과정에 관한 명령어 집합으로 구성된 소프트웨어의 제어에 따라 처리될 수 있다. 이를 위해, 프로세서(250)는, 상기 고장 지표 데이터로부터 미리 설정된 복수 개의 특징값을 추출하여 상기 고장 지표 데이터에 대한 군집도를 산출하고, 산출된 상기 군집도에 따라 각 고장에 대한 평가 기준의 명확도 수준을 결정하고, 결정된 상기 명확도 수준이 미리 정의된 임계 범위에 속하는지 여부를 판단하며, 판단 결과에 따라 해당하는 고장 현상을 '유지', '분리', 및 '병합' 중 어느 하나의 방식으로 재분류하도록 유도한다. 최종적으로 고장 기록 시스템(200)은 고장 현상이 재분류된 결과를 생성할 수 있다. 이렇게 재분류된 고장 현상을 활용하여 지도 학습의 결과(labeling) 데이터로서 이용될 수 있으며, 나아가 고장의 예정 내지 잔여 수명 예측 등에 활용될 수 있다.The input indicator data is preferably managed as a digital signal from the viewpoint of data processing, and can be processed under the control of software consisting of a set of instructions for a series of fault recording processes through at least one processor 250. have. To this end, the processor 250 extracts a plurality of preset feature values from the failure indicator data, calculates a clustering degree for the failure indicator data, and clarifies evaluation criteria for each failure according to the calculated clustering degree. A degree level is determined, and it is determined whether the determined level of clarity falls within a predefined threshold range, and a corresponding failure phenomenon is determined according to the determination result, one of'maintain','separate', and'merge' Induce them to reclassify in this way. Finally, the failure recording system 200 may generate a result in which the failure phenomenon is reclassified. The reclassified failure phenomenon may be used as labeling data of supervised learning, and furthermore, it may be used for predicting the failure or predicting the remaining life.

도 3은 본 발명의 일 실시예에 따른 고장 데이터의 군집 평가에 기반하여 대상 설비의 고장 데이터를 관리하는 방법을 도시한 흐름도로서, 앞서 기술한 도 2의 구성을 시계열적인 순서로 재구성한 것이다. 따라서, 도 3의 고장 데이터의 관리 방법은 이하에서 기술되는 일련의 과정을 수행하기 위한 명령어를 포함하는 소프트웨어로 구현될 수 있으며, 적어도 하나의 프로세서(processor)와 데이터 저장 수단을 구비하는 고장 기록 시스템에 탑재되어 구동될 수 있다.FIG. 3 is a flowchart illustrating a method of managing failure data of a target facility based on a cluster evaluation of failure data according to an embodiment of the present invention, and reconstructs the configuration of FIG. 2 described above in a time series sequence. Accordingly, the method for managing the fault data of FIG. 3 may be implemented with software including instructions for performing a series of processes described below, and a fault recording system including at least one processor and data storage means It can be mounted and driven.

S310 단계에서, 고장 기록 시스템은 대상 설비에 관하여 고장 여부를 관찰하고자 하는 기능 위치별로 고장이 발생한 상황에서의 고장 지표 데이터를 수집하여 고장 이력, 원인 및 유형과 함께 매칭(matching)하여 저장한다. 즉, 대상 설비의 기능상 위치를 구별하는 고유 번호가 부여된 구성 요소에 대해 그 식별자와 고장 지표 데이터를 입력받아 분석의 근거로 활용한다.In step S310, the failure recording system collects failure indicator data in a situation where a failure occurs for each functional location to observe whether or not there is a failure with respect to a target facility, and stores it by matching with the failure history, cause, and type. That is, the identifier and the failure index data are input to the component that is assigned a unique number for distinguishing the functional location of the target facility and used as a basis for analysis.

S320 단계에서, 상기 고장 기록 시스템은 상기 고장 지표 데이터로부터 미리 설정된 복수 개의 특징값을 추출하여 상기 고장 지표 데이터에 대한 군집도를 산출한다. 이때, 상기 특징값은 데이터의 평균, 분산, 모멘트, 엔트로피 중 적어도 하나를 포함하고, 상기 군집도는 동일한 고장이라고 판단된 특징값의 상대적인 거리의 평균으로 산출되는 것이 바람직하다. 이러한 특징값의 분포가 밀집되어 현상을 통해 하나의 고장에 대해 현재 설정된 고장 분류가 적절한지 여부를 판단할 수 있다.In step S320, the failure recording system extracts a plurality of preset feature values from the failure indicator data to calculate a clustering degree for the failure indicator data. At this time, the feature value includes at least one of the average, variance, moment, and entropy of the data, and the clustering is preferably calculated as the average of the relative distances of the feature values determined to be the same failure. The distribution of these feature values is concentrated, and it is possible to determine whether the currently set failure classification is appropriate for one failure through the phenomenon.

S330 단계에서, 상기 고장 기록 시스템은 산출된 상기 군집도에 따라 각 고장에 대한 평가 기준의 명확도 수준을 결정한다. 군집도는 고장 데이터의 분포가 얼마나 밀집되어 있는지를 나타내며, 특징값의 분포가 밀집되어 있는 고장은 고장을 판단할 때 명확한 특징이 있다는 것을 의미하므로, 군집도 평가를 통해 각 고장이 적절하게 분류되었는지에 관한 평가 기준의 명확도를 판정할 수 있다. 이를 위해 본 과정에서는, S320 단계를 통해 산출된 상기 군집도에 기초하여 하나의 고장에서 특징값을 클러스터링(clustering)함으로써 클러스터링 차별성을 평가할 수 있다.In step S330, the failure recording system determines the level of clarity of the evaluation criteria for each failure according to the calculated clustering degree. Clustering indicates how dense the distribution of failure data is, and failures with dense distribution of feature values mean that there are clear features when determining failures, so whether each failure is properly classified through clustering evaluation The clarity of the evaluation criteria for can be determined. To this end, in this process, clustering discrimination can be evaluated by clustering feature values in one failure based on the clustering calculated through step S320.

보다 구체적으로, 추출된 특징값을 이용하여 지표 데이터에 대한 군집도에 따라 각 고장에 대한 평가기준의 명확성을 수치로 결정하는 과정은 다음과 같다. 우선, 하나의 '고장 유형' 내에서 특징값 분포를 클러스터링(clustering)하여 발생한 클러스터(cluster)들을 클래스(class)로 지정한다. 그런 다음, 모든 클래스들 내부의 밀도(density)의 평균과 반비례하며, 서로 다른 클래스들의 중심 값과의 거리(distance or metric) 평균에 비례하는 계산식으로 해당 '고장 유형'에 대한 군집성을 수치로 산출함으로써, 평가 기준의 명확도 수준을 결정할 수 있다. 한편, 리스트에 있는 복수 개의 고장을 교차 비교하는 방법으로, 해당되는 두 '고장 유형'의 밀도(density)의 평균과 서로 간 거리(distance or metric)의 비를 계산식으로 두 '고장 유형'에 대한 차별성을 수치로 산출할 수 있다.More specifically, the process of determining the clarity of the evaluation criteria for each failure numerically according to the clustering of the indicator data using the extracted feature values is as follows. First, clusters generated by clustering feature value distributions within one'fault type' are designated as classes. Then, it is inversely proportional to the average of the density inside all classes, and is computed in proportion to the distance or metric average of the center values of the different classes to calculate the clustering for the'fault type' numerically. By doing so, the level of clarity of the evaluation criteria can be determined. On the other hand, by cross-comparing multiple failures in the list, the ratio of the average of the density of two corresponding'fault types' and the distance or metric to each other is calculated for the two'fault types'. Differentiation can be calculated numerically.

S340 단계에서, 상기 고장 기록 시스템은 결정된 상기 명확도 수준이 미리 정의된 임계 범위에 속하는지 여부를 판단한다. 이때, 임계 범위는, 현재의 고장 분류가 적절한지 여부를 판단하는 기준이 되는 것으로, 예를 들어, 1개의 고장 유형 내에서 고장 현상의 분리가 필요한지 여부를 판단하거나, 또는 2개의 고장 유형 간에 고장 현상의 병합이 필요한지 여부를 판단하기 위한 근거로 활용된다.In step S340, the failure recording system determines whether the determined level of clarity falls within a predefined threshold range. At this time, the threshold range is a criterion for determining whether the current failure classification is appropriate, for example, it is determined whether separation of a failure phenomenon is necessary within one failure type, or a failure between two failure types It is used as a basis for determining whether merging of phenomena is necessary.

그런 다음, S350 단계에서, 상기 고장 기록 시스템은 S340 단계를 통한 판단 결과에 따라 해당하는 고장 현상을 '유지', '분리', 및 '병합' 중 어느 하나의 방식으로 재분류하도록 유도한다. Then, in step S350, the failure recording system induces to re-classify the corresponding failure phenomenon in any one of'maintenance','separation', and'merge' according to the determination result through step S340.

앞서 S330 단계를 통해 산출된 '고장 유형'에 대한 군집성을 S340 단계에서 군집성에 관한 임계 범위와 비교하여 허용 범위를 벗어날 경우 사용자에게 '분리'를 제안하고, 분리된 두 '고장 유형'의 명칭을 새로 설정할 수 있다. 반면, S330 단계를 통해 산출된 임의의 두 '고장 유형'에 대한 차별성을 S340 단계에서 차별성에 관한 임계 범위와 비교하여 허용 범위를 벗어날 경우 사용자에게 두 '고장 유형'의 '결합'을 제안하고, 결합된 두 '고장 유형'의 명칭을 새로 설정할 수 있다.When the clustering for the'fault type' calculated through the step S330 is compared with the threshold range for the clustering in the step S340, if the deviation exceeds the allowable range, the user is given a'separation', and the names of the two'fault types' are separated. You can set a new one. On the other hand, if the difference between the two'fault types' calculated through step S330 is compared to the threshold range for the difference in step S340, the user suggests the'combination' of the two'fault types' when it falls outside the allowable range, The names of the two'fault types' combined can be set.

이러한 S340 단계 및 S350 단계를 수행함에 있어서, 판단을 수행하는 일련의 연산 과정이 수반되는데, 이후 도 10 내지 도 12를 통해 보다 구체적으로 설명하도록 한다.In performing these steps S340 and S350, a series of computational processes for determining are involved, which will be described in more detail with reference to FIGS. 10 to 12 later.

한편, 일정한 시간이 경과함에 따라 고장 데이터가 누적된 경우, 앞서 재분류된 고장 현상이 재차 유효하지 않을 수 있다. 이 경우, 상기된 S310 단계 내지 S350 단계를 반복하여 수행함으로써 변화된 고장 데이터에 따라 고장을 재분류하도록 유도하는 것이 바람직하다.On the other hand, if the failure data is accumulated over a period of time, the previously re-classified failure phenomenon may not be valid again. In this case, it is preferable to induce the failure to be reclassified according to the changed failure data by repeatedly performing the above steps S310 to S350.

도 4는 본 발명의 일 실시예에 따른 도 3의 고장 데이터의 관리 방법에서 고장 지표 데이터를 수집하여 저장하는 과정(S310 단계)을 보다 구체적으로 도시한 흐름도이다.4 is a flowchart illustrating in more detail the process of collecting and storing the failure indicator data (step S310) in the method of managing the failure data of FIG. 3 according to an embodiment of the present invention.

먼저, S311 단계에서는, 미리 정의된 고장 현상의 유형 중에서 실제의 고장에 대응하는 고장 현상을 선택받는다. 따라서, 고장에 관한 다양한 형태의 지표 데이터에 대응하는 유형 정보가 고장 기록 시스템을 통해 제공될 수 있다. 고장 현상의 카테고리를 선택받는 상황을 예시한 도 5를 참조하면 고장 기록 시스템에서 현재 정의되어 있는 고장 현상에 부여될 수 있는 다양한 유형이 표시되고 있는 화면을 볼 수 있다. 물론 최초의 시스템 구동시에는 사용자에 의해 미리 정의된 고장 현상의 유형이 사전 설정될 수 있으며, 이후 시스템에 고장 기록이 누적됨에 따라 카테고리의 재분류가 발생하게 된다.First, in step S311, a failure phenomenon corresponding to an actual failure is selected from the types of predefined failure phenomena. Accordingly, tangible information corresponding to various types of indicator data related to the failure can be provided through the failure recording system. Referring to FIG. 5 exemplifying a situation in which a category of a fault phenomenon is selected, a screen displaying various types that can be assigned to a fault phenomenon currently defined in the fault recording system can be seen. Of course, when the first system is operated, a type of a predefined failure phenomenon may be preset by a user, and then a reclassification of a category occurs as a record of failures is accumulated in the system.

S312 단계에서는, S311 단계를 통해 선택된 상기 고장 현상에 해당하는 설비의 진동, 소음, 온도, 유량, 및 압력 중 적어도 하나를 포함하여 기능의 성능을 나타내는 상태 데이터를 저장하고, 선택된 상기 고장 현상과 매칭한다. 즉, 고장 현상에 대한 지표 데이터를 매칭하여 저장하게 된다.In step S312, state data representing performance of a function including at least one of vibration, noise, temperature, flow rate, and pressure of a facility corresponding to the failure phenomenon selected through step S311 is stored, and matching with the selected failure phenomenon do. That is, the indicator data for the failure phenomenon is matched and stored.

S313 단계에서는, 설비의 상태 데이터 외에 고장이라고 판단한 근거가 되는 정보를 저장하고, 선택된 상기 고장 현상과 매칭한다. 즉, 고장 판단에 관한 추가 데이터를 연계하여 저장한다.In step S313, in addition to the state data of the facility, information that is the basis for determining the failure is stored, and the selected failure phenomenon is matched. That is, additional data related to the failure determination are linked and stored.

도 6은 본 발명의 일 실시예에 따른 도 3의 고장 데이터의 관리 방법에서 군집도를 산출하는 과정(S320 단계)을 보다 구체적으로 도시한 흐름도이다.6 is a flowchart more specifically illustrating a process (step S320) of calculating a clustering degree in the method of managing fault data of FIG. 3 according to an embodiment of the present invention.

S321 단계에서는, 고장 지표 데이터에 대하여 소정 주파수 대역을 분리하고, 시간 영역을 주파수 영역으로 변환하며, 시간 영역에서 송신파를 제외한 원 신호를 추출하기 위한 포락선 분석을 수행함으로써, 신호 처리를 통해 데이터를 정형화함으로써 정형화된 고장 지표 데이터로부터 복수 개의 특징값을 추출할 수 있다. 수집된 고장 지표 데이터에 대한 신호 처리 과정을 예시하고 있는 도 7 내지 도 9를 참조하여 S321 단계에서 수행되는 일련의 신호 처리 과정을 보다 구체적으로 설명한다.In step S321, the predetermined frequency band is separated for the failure indicator data, the time domain is converted to the frequency domain, and envelope analysis is performed to extract the original signal excluding the transmission wave from the time domain, thereby performing data through signal processing. By normalizing, a plurality of feature values can be extracted from the standardized failure indicator data. A series of signal processing processes performed in step S321 will be described in more detail with reference to FIGS. 7 to 9 illustrating the signal processing process for the collected fault indicator data.

대상 설비의 상태를 판단하는데 있어 중요 정보를 포함하고 있는 데이터의 수집 및 추출은 측정된 신호에 대한 적절한 신호 처리 과정을 통해 얻어질 수 있다. 예를 들어, 기계에서 발생되는 진동 신호는 기계를 구성하는 각 부품과 관련된 많은 주파수 성분들로 이루어져 있어 복잡하고 다양한 특성을 지니고 있다. 이러한, 진동 신호에 대한 적절한 신호 처리 기법은 크게 시간 영역(time domain)과 주파수 영역(frequency domain)으로 나누어지며, 각 영역에 대한 신호 처리 방법도 다르게 적용된다.The collection and extraction of data containing important information in determining the condition of the target facility can be obtained through an appropriate signal processing process for the measured signal. For example, the vibration signal generated by the machine is composed of many frequency components related to each component of the machine, and thus has various and complex characteristics. The appropriate signal processing technique for the vibration signal is largely divided into a time domain and a frequency domain, and signal processing methods for each domain are applied differently.

첫째, 저역 필터와 고역 필터를 이용하여 시간 영역의 신호로부터 특정 주파수 대역을 분리하기 위해 Discrete Wavelet Transform (DWT)이 활용 가능하다. 이때, 저역 필터를 통과한 결과물은 approximation이고, 고역 필터를 통과한 결과물은 detail coefficients로서, 각 필터를 통과한 결과는 주파수가 반으로 줄기 때문에 샘플의 절반이 제거될 수 있다. First, a Discrete Wavelet Transform (DWT) can be utilized to separate a specific frequency band from a time domain signal using a low pass filter and a high pass filter. At this time, the result of passing through the low-pass filter is approximation, and the result of passing through the high-pass filter is detail coefficients. As the result of passing through each filter is half the frequency, half of the sample can be removed.

지표 데이터에 대하여 주파수 대역을 분리하는 과정을 도시한 도 7의 (A)를 참조하면, 이러한 분해(decomposition) 과정은 계단식으로 반복되어 주파수 분해능을 높이고 필요한 주파수 대역을 쪼개어 볼 수 있다. 이것은 이진 트리(binary tree) 형태로 나타낼 수 있고 각 노드는 시간-주파수(time-frequency)로 표현된다. 도 7의 (B)는 도 7의 (A)의 각 레벨에서 주파수 대역을 도시한 것이다.Referring to FIG. 7(A), which shows a process of separating a frequency band with respect to the index data, this decomposition process can be repeated in a stepwise manner to increase frequency resolution and split a required frequency band. It can be represented in the form of a binary tree, and each node is represented by a time-frequency. FIG. 7B shows frequency bands at each level of FIG. 7A.

둘째, 시간 영역을 주파수 영역으로 변환하기 위해 Fast Fourier Transform (FFT)이 활용 가능하다. 도 8은 각각 지표 데이터의 시간 영역 파형(A) 및 주파수 영역 파형(B)을 예시한 도면이다.Second, Fast Fourier Transform (FFT) can be used to transform the time domain to the frequency domain. 8 is a diagram illustrating a time domain waveform (A) and a frequency domain waveform (B) of index data, respectively.

셋째, 시간 영역에서 송신 파를 제외한 원 신호를 추출하기 위한 포락선 분석 방법으로서, Hilbert-Huang Transform (HHT)을 이용한 analytic signal이 활용 가능하다. 도 9를 참조하면, 힐버트 변환을 통해 원래의 신호와 크기는 같으나 위상이 직교인 허수 쌍을 생성함으로써 신호의 포락선을 얻을 수 있다.Third, an analytic signal using a Hilbert-Huang Transform (HHT) can be used as an envelope analysis method for extracting an original signal excluding a transmission wave in the time domain. Referring to FIG. 9, an envelop of the signal can be obtained by generating an imaginary pair having the same magnitude as the original signal but having an orthogonal phase with the Hilbert transform.

다시 도 6으로 돌아와서, S322 단계에서는, 미리 설정된 복수 개의 특징값(특징 벡터)에 대해 분류의 군집성 및 차별성을 기준으로 각 특징의 민감도를 측정하고, 측정된 민감도가 기준치 이상인 특징만을 고장 진단을 위한 특징값(특징 벡터)으로 선택할 수 있다. 또한, 선택된 특징값(특징 벡터)의 순위별로 개수를 달리하면서 이용되는 분류 방법론의 결과에 따라 특징값(특징 벡터) 개수를 구할 수 있다.Returning to FIG. 6 again, in step S322, the sensitivity of each feature is measured based on the clustering and differentiation of the classification for a plurality of preset feature values (feature vectors), and only the feature whose sensitivity is higher than the reference value is used for fault diagnosis. It can be selected as a feature value (feature vector). In addition, the number of feature values (feature vectors) may be determined according to the result of the classification methodology used while varying the number of the selected feature values (feature vectors) for each rank.

우선, 시간 영역에서는 측정된 신호의 에너지, 분포도, 진폭 등의 특징들을 추출하기 위해 다음의 표 2 및 표 3과 같이 대상 설비의 고장 진단에 관한 특징 파라미터 값들을 활용할 수 있다. 표 2는 시간 영역 파라미터와 그 의미를 설명한 것이고, 표 3은 주파수 영역 파라미터와 그 의미를 설명한 것이다.First, in the time domain, in order to extract characteristics such as energy, distribution, and amplitude of the measured signal, as shown in Tables 2 and 3 below, feature parameter values related to failure diagnosis of the target facility may be used. Table 2 describes time domain parameters and their meanings, and Table 3 describes frequency domain parameters and their meanings.

Figure 112019129697772-pat00002
Figure 112019129697772-pat00002

Figure 112019129697772-pat00003
Figure 112019129697772-pat00003

앞서, 신호 처리 과정을 통해 취득한 특징값(특징 벡터)의 경우, 일반적으로 고차원이며 이를 기계 학습을 위한 분류기의 입력으로 사용할 경우 분류 성능의 저하를 초래할 수 있다. 그렇기에 신뢰성 있는 고장 진단을 위해서는 효과적인 특징값(특징 벡터)만을 추출하는 기법들이 필수적이다.In the case of the feature value (feature vector) acquired through the signal processing process, it is generally high-dimensional, and when it is used as an input of a classifier for machine learning, it may cause a decrease in classification performance. Therefore, techniques for extracting only effective feature values (feature vectors) are essential for reliable fault diagnosis.

본 실시예에서는 Distance Evaluation Technique (DET)을 통해 클래스(class)의 군집성과 차별성을 기준으로 각 특징의 민감도를 측정하고 이를 바탕으로 고장 진단에 효과적인 특징만을 일부 선택하는 전략을 취하였다. DET에 따라, 다수의 클래스, 고장 특징, 각 클래스별 일정 개수의 샘플로 구성된 행렬에서 각 고장의 특징을 대상으로 클래스 내 샘플들 간 평균 거리를 산출하고, 각 특징에 대하여 전체 클래스의 군집 정도를 산출한다. 그런 다음 해당 특징에 대한 클래스 간 구별 정도를 도출하여 해당 특징의 전체 클래스에 대한 민감도 값을 얻을 수 있다. 이제, 측정된 민감도가 기준치 이상인 특징만을 고장 진단을 위한 특징값(특징 벡터)으로 선택함으로써 진단에 비효율적인 특징값(특징 벡터)들을 배제할 수 있다.In this example, the strategy of measuring the sensitivity of each feature on the basis of clustering and differentiation of class through Distance Evaluation Technique (DET) and selecting only the features that are effective in diagnosing failures based on this. According to the DET, the average distance between samples in a class is calculated for each feature of a failure in a matrix consisting of a plurality of classes, failure characteristics, and a certain number of samples for each class, and the degree of clustering of all classes for each feature is calculated. Calculate. Then, the degree of discrimination between classes for the feature can be derived to obtain the sensitivity values for the entire class of the feature. Now, it is possible to exclude feature values (feature vectors) that are inefficient for diagnosis by selecting only features whose measured sensitivity is greater than or equal to a reference value as a feature value (feature vector) for diagnosis of failure.

다시 도 6으로 돌아와서, S323 단계에서는, 선택된 모든 특징값의 범위와 분산을 일정한 크기로 조정하는 스케일링(scaling)을 수행할 수 있다. 앞서 도출된 각각의 특징값(특징 벡터)의 범위와 분산이 서로 다르기 때문에, 다차원 공간에서 분류(예를 들어 SVM을 이용)를 수행할 경우, 군집도 값이 비교적 작은 특징인데도 불구하고 변수 값의 범위가 큰 특징 위주로 분류가 이루어지는 경우가 발생할 수 있다. 따라서 분류를 수행(예를 들어, SVM의 적용)하기 전에 선별된 모든 특징들의 범위와 분산을 일정하게 조정시키는 스케일링 과정이 수행되는 것이 바람직하다. 예를 들어, 이러한 스케일링 방법으로는 정규화(normalize)가 활용될 수 있다.Returning to FIG. 6 again, in step S323, scaling may be performed to adjust the range and variance of all selected feature values to a constant size. Since the range and variance of each feature value (feature vector) derived above are different from each other, when performing classification (for example, using SVM) in a multidimensional space, despite the feature having a relatively small cluster value, It may happen that the classification is based on a feature with a large range. Therefore, it is preferable that a scaling process is performed to uniformly adjust the range and variance of all selected features before performing classification (eg, application of SVM). For example, normalization may be used as the scaling method.

도 10은 본 발명의 일 실시예에 따른 도 3의 고장 데이터의 관리 방법에서 명확도 수준을 고려하여(S340 단계) 고장 현상을 재분류하는 과정(S350 단계)을 보다 구체적으로 도시한 흐름도이다.10 is a flowchart more specifically illustrating a process of reclassifying a failure phenomenon (step S350) in consideration of a level of clarity (step S340) in the method of managing the failure data of FIG. 3 according to an embodiment of the present invention.

앞서, S330 단계를 통해 산출된 군집도에 기초하여 하나의 고장에서 특징값을 클러스터링(clustering)함으로써 클러스터링 차별성을 평가하였다. 따라서, S340 단계에서는 각각 1개의 고장 또는 2개의 고장의 경우 분리 또는 병합이 필요한지 여부를 판단하는 과정에 대해 제시한다.Earlier, clustering discrimination was evaluated by clustering feature values in one failure based on the clustering calculated through step S330. Therefore, in step S340, a process of determining whether separation or merging is necessary in case of one failure or two failures is presented.

S341 단계에서는, 앞서 S330 단계를 통해 평가된 상기 클러스터링 차별성을 기준으로 해당 고장 유형의 명확도와 미리 정의된 제 1 임계 범위를 비교함으로써 고장 현상의 분리 필요 여부를 판단한다. 보다 구체적으로, S330 단계에서 하나의 '고장 유형' 내에서 특징값 분포를 클러스터링하여 발생한 클러스터들을 클래스로 지정하고, 모든 클래스들 내부의 밀도의 평균과 반비례하며, 서로 다른 클래스들의 중심 값과의 거리 평균에 비례하는 계산식으로 해당 '고장 유형'에 대한 군집성을 수치로 산출할 수 있음을 기술하였다. 이제, S341 단계에서는 산출된 군집성 수치를 제 1 임계 범위와 비교하게 된다. 여기서, 제 1 임계 범위는 클러스터링 차별성에 따라 해당 고장을 분리할지 여부를 판단하는 기준이 되는 값 내지 구간으로서 군집도 수치와 비교될 수 있는 산술적인 값 내지 구간으로 설정될 수 있다.In step S341, it is determined whether separation of the failure phenomenon is necessary by comparing the clarity of the failure type and a predefined first threshold range based on the clustering difference evaluated in step S330. More specifically, in step S330, clusters generated by clustering feature value distributions within one'fault type' are designated as classes, inversely proportional to the average of the density inside all classes, and the distance from the center values of different classes It was described that the clustering for the corresponding'fault type' can be calculated numerically with a calculation formula proportional to the average. Now, in step S341, the calculated clustering value is compared with the first threshold range. Here, the first threshold range may be set as an arithmetic value or a section that can be compared with a cluster value as a value or section that is a criterion for determining whether to separate the corresponding fault according to clustering differentiation.

S342 단계에서는, 새롭게 제시된 기능 위치 및 관찰 현상에 따라 생성된 의심 고장 리스트 내에 존재하는 복수 개의 의심 고장 항목을 교차 비교하여 2개의 해당 고장 항목의 군집성과 차별성을 기준으로 고장 항목들 간의 명확도와 미리 정의된 제 2 임계 범위를 비교함으로써 고장 현상의 병합 필요 여부를 판단할 수 있다. 보다 구체적으로, S330 단계에서 두 '고장 유형'의 밀도의 평균과 서로 간 거리의 비를 계산식으로 두 '고장 유형'에 대한 차별성을 수치로 산출할 수 있음을 기술하였다. 이제, S342 단계에서는 산출된 차별성 수치를 제 2 임계 범위와 비교하게 된다. 앞서, 도 1을 통해 간략히 소개한 바와 같이, 본 발명의 실시예들은 주어진 기능 위치 및 관찰 현상에 따라 의심 고장 리스트를 제공할 수 있는데, 이러한 의심 고장 리스트는 고장이 발생한 것이라고 추정되는 복수 개의 의심 고장 항목들을 포함한다. 즉, 현재 설정된 고장들 간의 분류가 적절한지 여부를 판단할 경우, 임의로 2개의 고장 유형을 선택하는 것이 아니라, 적어도 의심 고장 리스트 내에 함께 포함될 가능성이 있는(상관 관계가 높은) 2개의 고장 유형을 선택하여 양자들 간에 교차 비교를 수행하게 된다. 이때, 고장 항목들 간의 군집성과 차별성을 기준으로 양자가 얼마가 연관되어 있는지, 양자의 구분이 얼마나 명확한지를 제 2 임계 범위와 비교함으로써 병합 여부를 결정하게 된다.In step S342, a plurality of suspected faulty items existing in the list of suspected faults generated according to the newly proposed function location and observation phenomenon are cross-comparison to define and clarify and clarify between faulty items based on the clustering and differentiation of the corresponding two faulty items. By comparing the second threshold range, it is possible to determine whether or not a fault phenomenon needs to be merged. More specifically, it was described in step S330 that the difference between the mean of the density of two'fault types' and the distance between each other can be calculated numerically for the two'fault types'. Now, in step S342, the calculated differential value is compared with the second threshold range. As briefly introduced through FIG. 1, embodiments of the present invention may provide a list of suspected failures according to a given function location and observation phenomenon, and the list of suspected failures is a plurality of suspected failures that are presumed to have occurred. Includes items. That is, when determining whether classification between currently set faults is appropriate, two fault types that are likely to be included together in a list of suspect faults (high correlation) are selected, rather than randomly selecting two fault types. Thus, a cross comparison is performed between the two. At this time, whether to merge or not is determined by comparing with the second threshold range how much the two are related and how clear the two are based on the clustering and the difference between the failure items.

이제, S350 단계에서는 이러한 판단 결과(S340 단계)에 따라 고장 현장의 분리/병합/유지를 결정하게 된다. S350 단계는 다음의 3가지 연산 과정 중 어느 하나의 방식에 따라 수행되도록 유도한다.Now, in step S350, separation/merge/maintenance of the failure site is determined according to the determination result (step S340). Step S350 is induced to be performed according to any one of the following three calculation processes.

앞서 S341 단계에서 고장 현상의 '분리'가 필요하다고 판단된 경우, S351 단계로 진행하여 평가된 상기 클러스터링 차별성을 기준으로 해당 고장 항목을 2개로 분리한다. 앞서 S342 단계에서 고장 현상의 '병합'이 필요하다고 판단된 경우, S352 단계로 진행하여 평가된 상기 클러스터링 차별성을 기준으로 2개의 해당 고장 항목을 1개로 병합한다. 만약, 고장 현상이 '분리' 및 '병합' 중 어느 것도 필요하지 않다고 판단된 경우 S353 단계에서 해당 고장 항목을 유지하게 된다.When it is determined in step S341 that the'separation' of the failure phenomenon is necessary, the process proceeds to step S351 to separate the corresponding failure item into two based on the evaluated clustering discrimination. If it is determined in step S342 that the'merging' of the failure phenomenon is necessary, the process proceeds to step S352 and merges two corresponding failure items into one based on the evaluated clustering differentiation. If it is determined that neither of the'separation' and the'merging' is necessary, the failure item is maintained in step S353.

도 11은 1개의 고장 유형 내에서 고장 현상의 분리가 필요한지 여부를 판단하는 과정을 설명하기 위한 도면이다. 도 11을 참조하면, (A) → (B) → (C), (D)의 순서로 클러스터링 차별성을 도출하고, 이로부터 1개의 고장 현상에 대한 분리 필요 여부를 판단하는 과정을 예시하였다. 도 11의 (C)는 각 고장의 특징을 대상으로 클래스 내 샘플들 간 평균 거리를 산출하고, 각 특징에 대하여 전체 클래스의 군집 정도를 산출하는 과정을 보여준다. 예시된 class4의 경우 샘플들 간의 거리가 상대적으로 멀게 분포되어 밀도(density)가 낮은 것을 확인할 수 있다. 도 11의 (D)는 해당 특징에 대한 클래스 간 구별 정도를 도출하여 해당 특징의 전체 클래스에 대한 민감도 값을 얻는 과정을 보여준다. 예시된 class4의 경우 여타의 클래스와의 이격된 거리(distance)가 상대적으로 큰 것을 확인할 수 있다.11 is a view for explaining a process for determining whether separation of a failure phenomenon is necessary within one failure type. Referring to Figure 11, (A) → (B) → (C), deriving the clustering differentiation in the order of (D), and illustrated a process for determining whether it is necessary to separate for one failure phenomenon. FIG. 11C shows a process of calculating an average distance between samples in a class for each feature of a failure, and calculating the degree of clustering of the entire class for each feature. In the case of the illustrated class 4, it can be seen that the distance between samples is relatively distant and the density is low. 11(D) shows a process of obtaining a sensitivity value for all classes of a corresponding characteristic by deriving a degree of distinction between classes for the characteristic. In the case of the illustrated class 4, it can be seen that the distance from other classes is relatively large.

도 12는 2개의 고장 유형 간에 고장 현상의 병합이 필요한지 여부를 판단하는 과정을 설명하기 위한 도면이다. 도 12를 참조하면, 가로축과 세로축에 동일한 고장 현상을 기재하였으며, 이들을 교차 비교한 결과를 시각화하여 도시하였다. 이를 통해, 2개의 고장 항목의 군집성과 차별성을 기준으로 고장 현상의 병합 필요 여부를 판단할 수 있다. 예를 들어, '소손/절단'과 '균열/파손'의 고장을 교차 비교한 결과(A)를 살펴보면, 양자의 군집이 명확하게 분리되지 않고 서로 차별성을 갖지 못하고 있는 것을 확인할 수 있으며, 이 경우 고장 현상의 병합이 필요하다고 판단할 수 있다. 반면, '이물질/오염'과 '소손/절단'의 고장을 교차 비교한 결과(B)를 살펴보면, 양자의 군집이 명확하게 분리되어 서로 차별성을 갖고 있는 것을 확인할 수 있으며, 이 경우 고장 현상을 병합하지 않고 각각의 유형을 유지하는 것이 더 바람직하다.12 is a diagram for explaining a process of determining whether merging of failures is necessary between two types of failures. Referring to FIG. 12, the same failure phenomenon is described on the horizontal axis and the vertical axis, and the results of cross-comparing these are visualized. Through this, it is possible to determine whether it is necessary to merge the faults based on the clustering and differentiation of the two faults. For example, looking at the result of cross-comparison of failures of'burnout/cutting' and'crack/breaking', it can be seen that the clusters of the two are not clearly separated and do not have differentiation from each other. It can be judged that it is necessary to merge the faults. On the other hand, looking at the result of cross-comparison of the failures of'foreign material/contamination' and'burnout/cutting', it can be seen that the clusters of the two are clearly separated and differentiated from each other. It is more desirable not to maintain each type.

상기된 본 발명의 실시예들은, 고장의 특성을 나타내는 지표 데이터의 특징값을 추출하고 추출된 특징값 분포의 군집성을 척도로 하여 고장의 특징이 정규성을 위배할 경우 고장의 재분류를 유도함으로써, 특징이 불명확한 고장으로 발생할 진단 오류를 감소시키고 고장 데이터가 적용되는 분석 결과의 신뢰도를 향상시킨다.The embodiments of the present invention described above, by extracting the feature value of the indicator data indicating the characteristic of the failure and measuring the clustering of the extracted feature value distribution as a measure, induce the re-classification of the failure when the feature of the failure violates normality, It reduces the diagnostic error that will occur due to an unclear failure and improves the reliability of the analysis results to which the failure data is applied.

한편, 본 발명은 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.On the other hand, the present invention can be implemented in the computer-readable code on the computer-readable recording medium embodiments. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium can be distributed over network coupled computer systems so that the computer-readable code is stored and executed in a distributed fashion. And functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.

이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.In the above, the present invention has been mainly focused on the various embodiments. Those skilled in the art to which the present invention pertains will appreciate that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in terms of explanation, not limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent range should be interpreted as being included in the present invention.

200: 고장 기록 시스템
210: 입력부
230: 저장부
250: 프로세서
200: fault recording system
210: input
230: storage
250: processor

Claims (10)

적어도 하나의 프로세서(processor)와 데이터 저장 수단을 구비하는 고장 기록 시스템이 대상 설비에 대한 고장 데이터를 관리하는 방법에 있어서,
(a) 고장 기록 시스템이 대상 설비에 관하여 고장 여부를 관찰하고자 하는 기능 위치별로 고장이 발생한 상황에서의 고장 지표 데이터를 수집하여 고장 이력, 원인 및 유형과 함께 매칭(matching)하여 저장하는 단계;
(b) 상기 고장 기록 시스템이 상기 고장 지표 데이터로부터 미리 설정된 복수 개의 특징값을 추출하여 상기 고장 지표 데이터에 대한 군집도를 산출하는 단계;
(c) 상기 고장 기록 시스템이 산출된 상기 군집도에 기초하여 하나의 고장에서 특징값을 클러스터링(clustering)하여 고장 유형 내에서 발생한 모든 클러스터(cluster)들 내부의 밀도의 평균과 반비례하며 서로 다른 클러스터들의 중심 값과의 거리 평균에 비례하도록 군집성 수치를 산출함으로써 각 고장에 대한 평가 기준의 명확도 수준을 결정하는 단계;
(d) 상기 고장 기록 시스템이 결정된 상기 명확도 수준이 미리 정의된 임계 범위에 속하는지 여부를 판단하는 단계; 및
(e) 상기 고장 기록 시스템이 판단 결과에 따라 해당하는 고장 현상을 '유지', '분리', 및 '병합' 중 어느 하나의 방식으로 재분류하도록 유도하는 단계;를 포함하고,
상기 (d) 단계는,
(d2) 산출된 상기 군집성 수치를 기준으로 해당 고장 유형의 명확도와 미리 정의된 제 1 임계 범위를 비교함으로써 고장 현상의 분리 필요 여부를 판단하는 단계; 및
(d2) 새롭게 제시된 기능 위치 및 관찰 현상에 따라 생성된 의심 고장 리스트 내에 존재하는 복수 개의 의심 고장 항목을 교차 비교하여 2개의 해당 고장 항목의 군집성과 차별성을 기준으로 고장 항목들간의 명확도와 미리 정의된 제 2 임계 범위를 비교함으로써 고장 현상의 병합 필요 여부를 판단하는 단계;를 포함하는, 고장 데이터의 관리 방법.
A method of managing a failure data for a target facility by a failure recording system having at least one processor (processor) and data storage means,
(a) collecting a failure indicator data in a situation where a failure occurs for each functional location where a failure recording system wants to observe a failure with respect to a target facility, and storing it by matching with a failure history, cause, and type;
(b) the failure recording system extracting a plurality of preset feature values from the failure indicator data to calculate a clustering degree for the failure indicator data;
(c) Clusters of characteristic values from one failure based on the cluster diagram calculated by the failure recording system are inversely proportional to the average of the density inside all clusters occurring within the failure type, and different clusters Determining a level of clarity of an evaluation criterion for each failure by calculating a clustering value to be proportional to a distance average of the center values of the;
(d) the failure recording system determining whether the determined level of clarity falls within a predefined threshold range; And
(e) inducing the failure recording system to reclassify the corresponding failure phenomenon in one of'maintenance','separation', and'merge' according to the determination result;
Step (d) is,
(d2) determining whether a failure phenomenon is necessary to be separated by comparing the clarity of the failure type and a first predefined threshold range based on the calculated cluster value; And
(d2) Cross-comparison a plurality of suspected faulty items in the list of suspected faults generated according to the newly proposed function location and observation phenomenon, and define the clarity and predefinedness between faulty items based on the clustering and differentiation of the two faulty items. And determining whether to merge the faults by comparing the second threshold range.
제 1 항에 있어서,
상기 (a) 단계는,
(a1) 미리 정의된 고장 현상의 유형 중에서 실제의 고장에 대응하는 고장 현상을 선택받는 단계;
(a2) 선택된 상기 고장 현상에 해당하는 설비의 진동, 소음, 온도, 유량, 및 압력 중 적어도 하나를 포함하여 기능의 성능을 나타내는 상태 데이터를 저장하고, 선택된 상기 고장 현상과 매칭하는 단계; 및
(a3) 설비의 상태 데이터 외에 고장이라고 판단한 근거가 되는 정보를 저장하고, 선택된 상기 고장 현상과 매칭하는 단계;를 포함하는, 고장 데이터의 관리 방법.
According to claim 1,
Step (a) is,
(a1) selecting a failure phenomenon corresponding to an actual failure from among predefined types of failure phenomenon;
(a2) storing state data indicating performance of a function including at least one of vibration, noise, temperature, flow rate, and pressure of a facility corresponding to the selected failure phenomenon, and matching the selected failure phenomenon; And
(a3) storing information that is the basis for determining the failure in addition to the state data of the facility, and matching with the selected failure phenomenon.
제 1 항에 있어서,
상기 (b) 단계는,
(b1) 상기 고장 지표 데이터에 대하여 소정 주파수 대역을 분리하고, 시간 영역을 주파수 영역으로 변환하며, 시간 영역에서 송신파를 제외한 원 신호를 추출하기 위한 포락선 분석을 수행함으로써, 신호 처리를 통해 데이터를 정형화하는 단계;를 더 포함함으로써 정형화된 고장 지표 데이터로부터 복수 개의 특징값을 추출하는, 고장 데이터의 관리 방법.
According to claim 1,
Step (b) is,
(b1) By performing a envelope analysis for separating a predetermined frequency band, converting a time domain into a frequency domain, and extracting an original signal excluding a transmission wave from the time domain, the data is processed through signal processing. The step of normalizing; extracting a plurality of feature values from the standardized failure indicator data by further including, the failure data management method.
제 1 항에 있어서,
상기 (b) 단계는,
(b2) 미리 설정된 복수 개의 특징값에 대해 분류의 군집성 및 차별성을 기준으로 각 특징의 민감도를 측정하고, 측정된 민감도가 기준치 이상인 특징만을 고장 진단을 위한 특징값으로 선택하는 단계;를 더 포함하는, 고장 데이터의 관리 방법.
According to claim 1,
Step (b) is,
(b2) measuring the sensitivity of each feature based on the clustering and differentiation of the classification for a plurality of preset feature values, and selecting only features having a measured sensitivity higher than or equal to the reference value as a feature value for failure diagnosis; , Failure data management method.
제 4 항에 있어서,
상기 (b2) 단계는,
DET(Distance Evaluation Technique)에 따른 다수의 클래스(class), 고장 특징, 각 클래스별 일정 개수의 샘플로 구성된 행렬에서 각 고장의 특징을 대상으로 클래스 내 샘플들 간 평균 거리를 산출하고, 각 특징에 대하여 전체 클래스의 군집 정도를 산출하며, 해당 특징에 대한 클래스 간 구별 정도를 도출하여 해당 특징의 전체 클래스에 대한 민감도 값을 획득하는, 고장 데이터의 관리 방법.
The method of claim 4,
Step (b2) is,
Calculate the average distance between samples in a class for each failure characteristic in a matrix composed of a number of classes, failure characteristics, and a certain number of samples for each class according to DET (Distance Evaluation Technique) The method of managing failure data, which calculates the degree of clustering of all classes, derives the degree of distinction between classes for the characteristic, and obtains a sensitivity value for the entire class of the characteristic.
제 4 항에 있어서,
상기 (b) 단계는,
(b3) 선택된 모든 특징값의 범위와 분산을 일정한 크기로 조정하는 스케일링(scaling)을 수행하는 단계;를 더 포함하는, 고장 데이터의 관리 방법.
The method of claim 4,
Step (b) is,
(b3) performing scaling to adjust the range and variance of all selected feature values to a certain size; further comprising a method of managing fault data.
삭제delete 제 1 항에 있어서,
상기 (d2) 단계는,
고장이 발생한 것이라고 추정되는 복수 개의 의심 고장 항목들을 포함하되 고장 지표 데이터로부터 추출된 특징값의 군집도가 높은 순서대로 재배열된 의심 고장 리스트 내에서 상관 관계를 고려하여 선택된 2개의 고장 유형을 교차 비교하는, 고장 데이터의 관리 방법.
According to claim 1,
Step (d2) is,
Cross-comparison the two selected fault types by considering the correlation within the suspect fault list rearranged in the order of clustering of feature values extracted from the failure index data, including a plurality of suspect fault items that are estimated to have occurred. How to manage fault data.
제 1 항에 있어서,
상기 (e) 단계는,
(e1) 고장 현상의 '분리'가 필요하다고 판단된 경우 평가된 상기 클러스터링 차별성을 기준으로 해당 고장 항목을 2개로 분리하는 단계;
(e2) 고장 현상의 '병합'이 필요하다고 판단된 경우 평가된 상기 클러스터링 차별성을 기준으로 2개의 해당 고장 항목을 1개로 병합하는 단계; 또는
(e3) 고장 현상이 '분리' 및 '병합' 중 어느 것도 필요하지 않다고 판단된 경우 해당 고장 항목을 유지하는 단계;
중, 어느 하나의 방식을 선택적으로 수행함으로써 고장 현상을 재분류하도록 유도하는, 고장 데이터의 관리 방법.
According to claim 1,
Step (e) is,
(e1) when it is determined that'separation' of the failure phenomenon is necessary, separating the corresponding failure item into two based on the evaluated clustering differentiation;
(e2) merging two corresponding failure items into one based on the evaluated clustering differentiation when it is determined that'merging' of the failure phenomenon is necessary; or
(e3) maintaining the corresponding failure item when it is determined that neither the'separation' nor the'merge' is necessary;
Among them, a method of managing fault data, which induces to reclassify the fault phenomenon by selectively performing one of the methods.
제 1 항에 있어서,
소정 시간이 경과하여 고장 데이터가 누적된 경우, 상기 (a) 단계 내지 (e) 단계를 반복하여 수행함으로써 변화된 고장 데이터에 따라 고장을 재분류하도록 유도하는, 고장 데이터의 관리 방법.
According to claim 1,
When the failure data accumulates after a predetermined time has elapsed, the steps (a) to (e) are repeated to induce the failure to be reclassified according to the changed failure data, and the failure data management method.
KR1020190167744A 2019-12-16 2019-12-16 Failure data management method based on cluster estimation KR102141391B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190167744A KR102141391B1 (en) 2019-12-16 2019-12-16 Failure data management method based on cluster estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190167744A KR102141391B1 (en) 2019-12-16 2019-12-16 Failure data management method based on cluster estimation

Publications (1)

Publication Number Publication Date
KR102141391B1 true KR102141391B1 (en) 2020-08-05

Family

ID=72041444

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190167744A KR102141391B1 (en) 2019-12-16 2019-12-16 Failure data management method based on cluster estimation

Country Status (1)

Country Link
KR (1) KR102141391B1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036505A (en) * 2020-09-17 2020-12-04 广西交控智维科技发展有限公司 Method and device for determining equipment state of turnout switch machine and electronic equipment
CN112183780A (en) * 2020-09-27 2021-01-05 珠海格力电器股份有限公司 Fault maintenance guiding method, device and system and storage medium
KR102278199B1 (en) * 2020-12-31 2021-07-16 주식회사 한국가스기술공사 Method for managing diagnostic data based on conditional probability
CN113176962A (en) * 2021-04-14 2021-07-27 北京中大科慧科技发展有限公司 Machine room IT equipment fault accurate detection method and system for data center
CN113705605A (en) * 2021-07-20 2021-11-26 中国人民解放军海军大连舰艇学院 Automatic cleaning method for abnormal values of multi-beam sounding data with partial manual intervention
CN113743531A (en) * 2021-09-14 2021-12-03 华润电力技术研究院有限公司 Equipment working condition early warning method and related device
CN114412773A (en) * 2022-01-18 2022-04-29 青岛埃恩斯信息技术科技有限公司 Intelligent fault diagnosis system for pump group
CN116151788A (en) * 2022-04-01 2023-05-23 港珠澳大桥管理局 Method, device, equipment and storage medium for classifying electromechanical equipment in tunnel
CN116319262A (en) * 2023-05-24 2023-06-23 国网山西省电力公司长治供电公司 Communication fault data detection model of electric energy metering device
CN117055537A (en) * 2023-10-12 2023-11-14 深圳丰汇汽车电子有限公司 Motorcycle electric control system fault diagnosis method based on Internet of things
CN117786488A (en) * 2023-12-26 2024-03-29 国网青海省电力公司清洁能源发展研究院 Active safety prevention and control method for electrochemical energy storage full life cycle
CN118228513A (en) * 2024-05-23 2024-06-21 江苏大中电机股份有限公司 Digital modeling simulation system and method based on artificial intelligence
KR102693609B1 (en) * 2023-06-23 2024-08-08 주식회사 토이코스 Method and system for predicting water supply accidents using classified complaint data according to classification system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205058A (en) * 1992-01-24 1993-08-13 Hitachi Ltd Clustering method
KR20060077814A (en) 2004-12-31 2006-07-05 한국기계연구원 Fault diagnosis system and method of machine tool
JP2010122847A (en) * 2008-11-19 2010-06-03 Hitachi Ltd Method and system for diagnosing abnormality of apparatus
KR101797400B1 (en) * 2016-11-30 2017-11-15 울산대학교 산학협력단 Method and apparatus for diagnosing fault based on probabilistic density
KR101823746B1 (en) * 2016-02-05 2018-01-30 울산대학교 산학협력단 Method for bearing fault diagnosis
KR101936283B1 (en) * 2017-12-28 2019-01-08 주식회사 한국가스기술공사 Diagnostic and prognostics method for machine fault

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205058A (en) * 1992-01-24 1993-08-13 Hitachi Ltd Clustering method
KR20060077814A (en) 2004-12-31 2006-07-05 한국기계연구원 Fault diagnosis system and method of machine tool
JP2010122847A (en) * 2008-11-19 2010-06-03 Hitachi Ltd Method and system for diagnosing abnormality of apparatus
KR101823746B1 (en) * 2016-02-05 2018-01-30 울산대학교 산학협력단 Method for bearing fault diagnosis
KR101797400B1 (en) * 2016-11-30 2017-11-15 울산대학교 산학협력단 Method and apparatus for diagnosing fault based on probabilistic density
KR101936283B1 (en) * 2017-12-28 2019-01-08 주식회사 한국가스기술공사 Diagnostic and prognostics method for machine fault

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036505A (en) * 2020-09-17 2020-12-04 广西交控智维科技发展有限公司 Method and device for determining equipment state of turnout switch machine and electronic equipment
CN112183780A (en) * 2020-09-27 2021-01-05 珠海格力电器股份有限公司 Fault maintenance guiding method, device and system and storage medium
KR102278199B1 (en) * 2020-12-31 2021-07-16 주식회사 한국가스기술공사 Method for managing diagnostic data based on conditional probability
CN113176962B (en) * 2021-04-14 2024-05-07 北京中大科慧科技发展有限公司 Computer room IT equipment fault accurate detection method and system for data center
CN113176962A (en) * 2021-04-14 2021-07-27 北京中大科慧科技发展有限公司 Machine room IT equipment fault accurate detection method and system for data center
CN113705605A (en) * 2021-07-20 2021-11-26 中国人民解放军海军大连舰艇学院 Automatic cleaning method for abnormal values of multi-beam sounding data with partial manual intervention
CN113705605B (en) * 2021-07-20 2024-05-31 中国人民解放军海军大连舰艇学院 Automatic cleaning method for abnormal values of multi-beam sounding data through partial manual intervention
CN113743531A (en) * 2021-09-14 2021-12-03 华润电力技术研究院有限公司 Equipment working condition early warning method and related device
CN114412773B (en) * 2022-01-18 2024-05-28 青岛埃恩斯信息技术科技有限公司 Intelligent diagnosis system for machine pump group faults
CN114412773A (en) * 2022-01-18 2022-04-29 青岛埃恩斯信息技术科技有限公司 Intelligent fault diagnosis system for pump group
CN116151788B (en) * 2022-04-01 2023-12-22 港珠澳大桥管理局 Method, device, equipment and storage medium for classifying electromechanical equipment in tunnel
CN116151788A (en) * 2022-04-01 2023-05-23 港珠澳大桥管理局 Method, device, equipment and storage medium for classifying electromechanical equipment in tunnel
CN116319262B (en) * 2023-05-24 2023-07-28 国网山西省电力公司长治供电公司 Communication fault data detection model of electric energy metering device
CN116319262A (en) * 2023-05-24 2023-06-23 国网山西省电力公司长治供电公司 Communication fault data detection model of electric energy metering device
KR102693609B1 (en) * 2023-06-23 2024-08-08 주식회사 토이코스 Method and system for predicting water supply accidents using classified complaint data according to classification system
CN117055537A (en) * 2023-10-12 2023-11-14 深圳丰汇汽车电子有限公司 Motorcycle electric control system fault diagnosis method based on Internet of things
CN117055537B (en) * 2023-10-12 2024-01-02 深圳丰汇汽车电子有限公司 Motorcycle electric control system fault diagnosis method based on Internet of things
CN117786488A (en) * 2023-12-26 2024-03-29 国网青海省电力公司清洁能源发展研究院 Active safety prevention and control method for electrochemical energy storage full life cycle
CN117786488B (en) * 2023-12-26 2024-06-07 国网青海省电力公司清洁能源发展研究院 Active safety prevention and control method for electrochemical energy storage full life cycle
CN118228513A (en) * 2024-05-23 2024-06-21 江苏大中电机股份有限公司 Digital modeling simulation system and method based on artificial intelligence

Similar Documents

Publication Publication Date Title
KR102141391B1 (en) Failure data management method based on cluster estimation
KR102123522B1 (en) Failure diagnostic method based on cluster of fault data
JP7340265B2 (en) Abnormality detection device, abnormality detection method, and program
US8682824B2 (en) Method and device for monitoring the state of a facility
CN108985279B (en) Fault diagnosis method and device for MVB waveform of multifunctional vehicle bus
KR102278199B1 (en) Method for managing diagnostic data based on conditional probability
EP3105644B1 (en) Method of identifying anomalies
KR101948604B1 (en) Method and device for equipment health monitoring based on sensor clustering
JP6200833B2 (en) Diagnostic equipment for plant and control equipment
JP6714498B2 (en) Equipment diagnosis device and equipment diagnosis method
JP2020071624A (en) Abnormality diagnosing apparatus, abnormality diagnosing method and program
KR102253230B1 (en) Predictive diagnosis method and system of nuclear power plant equipment
KR101991296B1 (en) Apparatus For Making A Predictive Diagnosis Of Nuclear Power Plant By Machine Learning
CN118375603A (en) Fault monitoring method and system for vacuum pump
CN118261584A (en) Transformer state evaluation method and system based on multi-parameter data
KR102196611B1 (en) Predictive diagnosis method and system of nuclear power plant equipment
KR101983603B1 (en) Apparatus For Making A Predictive Diagnosis Of Nuclear Power Plant By Machine Learning And Augmented Reality
KR101967641B1 (en) Apparatus For Making A Predictive Diagnosis Of Nuclear Power Plant By Machine Learning And Augmented Reality
KR101967633B1 (en) Apparatus For Making A Predictive Diagnosis Of Nuclear Power Plant By Machine Learning
KR102470804B1 (en) Method and system for comprehensive diagnosis defects in rotating machinery
KR102649453B1 (en) Method and system for diagnosing defects in rotating machinery
JP6641056B1 (en) Device abnormality diagnosis method and device abnormality diagnosis system
CN112699609A (en) Diesel engine reliability model construction method based on vibration data
CN106487592A (en) A kind of Faults in Distributed Systems diagnostic method based on data cube
CN118465475B (en) Ultrahigh frequency partial discharge stability test method and device for hydraulic generator

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant