CN116842323A - 一种供水管线运行数据异常检测方法 - Google Patents
一种供水管线运行数据异常检测方法 Download PDFInfo
- Publication number
- CN116842323A CN116842323A CN202310893348.7A CN202310893348A CN116842323A CN 116842323 A CN116842323 A CN 116842323A CN 202310893348 A CN202310893348 A CN 202310893348A CN 116842323 A CN116842323 A CN 116842323A
- Authority
- CN
- China
- Prior art keywords
- data
- layer
- lstm
- model
- cnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 45
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 29
- 230000002159 abnormal effect Effects 0.000 title claims description 21
- 230000005856 abnormality Effects 0.000 claims abstract description 22
- 230000007246 mechanism Effects 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 13
- 230000008034 disappearance Effects 0.000 claims abstract description 9
- 238000004880 explosion Methods 0.000 claims abstract description 6
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000011156 evaluation Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000006403 short-term memory Effects 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 230000007787 long-term memory Effects 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000013480 data collection Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 claims description 3
- 238000000556 factor analysis Methods 0.000 claims description 3
- 230000006386 memory function Effects 0.000 claims description 3
- 238000013450 outlier detection Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000011084 recovery Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 20
- 230000015654 memory Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
一种供水管线运行数据异常检测方法,具体步骤如下:S1:数据采集与预处理;S2:构建基于Attention机制的CNN‑LSTM模型;S3:训练与验证模型;S4:异常检测。本发明方法将CNN与LSTM时序数据异常检测模型特点相结合,既能够通过CNN学习到数据多特征之间的空间上的相关性,而且LSTM凭借其内部的门控机制,可以有效避免梯度消失或爆炸的问题,从而能够处理更长跨度的时间序列数据,同时引入Attention机制,对输入序列进行权重分配,使得序列中某些重要的特征更容易被捕获,从而进一步降低模型的误差。
Description
技术领域
本发明涉及供水管道输送领域,具体涉及一种供水管线运行数据异常检测方法。
背景技术
目前,对于供水管线运行数据异常检测方法最常用的是机器学习方法与深度学习方法,在前者中,LOF、OC-svm、svdd这些方法都是常用的异常检测方法,但是这类方法只能检测空间异常,也就是异常数据与正常数据在数值值域上分布有明显不同,未利用时间信息;而在后者中,如传统的RNN模型,他可以很好地捕捉时间序列数据的短期依赖关系,但进行精准的异常检测往往需要获取时间序列数据的跨度很长的依赖关系,这时候RNN会面临计算复杂度急剧增加、梯度消失或爆炸等问题。
发明内容
本发明所要解决的技术问题是,针对上述背景技术中所述的不足,提供一种供水管线运行数据异常检测方法,该方法将CNN(卷积神经网络)与LSTM(长短期记忆网络)时序数据异常检测模型特点相结合,既能够通过CNN学习到数据多特征之间的空间上的相关性,而且LSTM凭借其内部的门控机制,可以有效避免梯度消失或爆炸的问题,从而能够处理更长跨度的时间序列数据,同时引入Attention(注意力)机制,对输入序列进行权重分配,使得序列中某些重要的特征更容易被捕获,从而进一步降低模型的误差。
本发明解决其技术问题所采用的技术方案是:一种供水管线运行数据异常检测方法,具体步骤如下:
S1:数据采集与预处理;
供水管线运行数据通过在线数据采集与传输单元采集并发送到数据中心,依次对数据进行时间序列缺失值插补、时间序列去噪、离群值检测、主要相关性因素分析等处理过程;
S2:构建基于Attention机制的CNN-LSTM模型;
基于Attention机制的CNN-LSTM模型是一种将CNN(卷积神经网络)与LSTM(长短期记忆网络)时序数据异常检测模型特点相结合的无监督异常检测模型,既能够通过CNN学习到数据多特征之间的空间上的相关性,也能利用LSTM模型捕获数据时间上的依赖关系,同时引入Attention(注意力)机制,对输入序列进行权重分配,使得序列中某些重要的特征更容易被捕获,从而进一步降低模型的误差,其结构如下:
第一层是输入层,规定输入数据的格式:批大小、时间步数、特征维度,将批大小默认为1,时间步数记为t,特征维度记为n,则一条样本可表示为一个实数序列矩阵,记为/>中第i个时间步数据的向量表示;
第二层是CNN层,CNN层可以学习到数据多特征之间的空间上的相关性,弥补LSTM无法捕获数据空间分量的缺点,同时它提取出的特征仍然具有时序性;样本数据进入CNN层中会依次进行卷积、池化和节全连接操作;
第三层是多层LSTM层,LSTM具有记忆功能,可以提取建管线运行非线性数据的时序变化信息;它引入了输入门、遗忘门、输出门,同时还添加了候选态、细胞态和隐状态;细胞态存储长期记忆,可以缓解梯度消失,隐状态存储短期记忆;本模型采用了多层 LSTM,上一层 LSTM 的输出是下一层的输入,一层一层往下传递,最后一层 LSTM 隐藏层的输出会进入注意力层进一步处理;
第四层是Attention层,注意力可以提高 LSTM中重要时间步的作用,从而进一步降低模型预测误差;注意力本质上就是求最后一层 LSTM 输出向量的加权平均和;
第五层是输出层,该层规定了预测时间步,最终输出该预测时间步/>内的预测结果;
S3:训练与验证模型;
数据集采用NAB数据集,按照8:2的比例划分为训练集与测试集,它由超过50个标记的真实世界和人工时间序列数据文件组成,例如AWS服务器指标、云服务器的CPU使用率,工业设备运行参数记录等;NAB数据集是Numenta公司开源的用于评估流式时序异常检测算法的公开数据集,对于每个时间序列,均包含一个布尔型的异常值标签,该标签用于帮助我们判断是否为异常值;
模型的评价指标包括:precision、recall和F1-score;precision为精确率,也叫查准率,即异常检测模型正确识别出来的异常样本占全部预测为异常样本的比例;recall为召回率,即正确识别出来的异常样本占原数据样本中总异常样本的比例;精确率和召回率相互影响,理想状态下是追求两个都高,但实际情况是两者相互“制约”; F1-score为F1得分,则是综合了精确率和召回率的评价结果,在实际应用中,用来评价模型的好坏,该值越高则说明用于检测的模型越有效果;
S4:异常数据检测;
将经过预处理的真实数据输入模型,得到异常检测区间时间段的异常检测结果。
进一步地,步骤S1中,供水管线的运行数据包括流量、流速、水压、水温、水位等数据。
进一步地,步骤S2中,在第二层CNN层的构建中,本模型采取一维卷积,卷积核只按照单一的时域方向进行卷积;卷积核数目为r,尺寸设置为k,则为/>中第i个时间步到第i+k-1个时间步的实数矩阵,滑动步长为1;权重矩阵/>是一个k×n的实数矩阵;对每k个时间步的序列向量进行一次特征提取,得到一个特征/>,计算公式如下:
,
是非线性的激活函数,/>∈R是一个偏置;当一个卷积核提取完一条样本的序列数据后,会得到一个(t-k+1)×1形状的特征图o,计算公式如下:
,
这r个特征图即为 CNN 层提取的特征,将其降维成一个长度为 r*(t-k+1)/2 的实数向量,该向量中保存了样本数据中不同特征值之间的空间联系,再输入LSTM 层中继续处理。
进一步地,步骤S2中,在第四层Attention层的构建中,LSTM 隐藏层输出向量作为注意力层的输入,通过一个全连接层进行训练,再对全连接层的输出使用 softmax 函数进行归一化,得出每一个隐藏层向量的分配权重,权重大小表示每个时间步的隐状态对于预测结果的重要程度;权重训练过程如下:
,
,
再利用训练出的权重对隐藏层输出向量求加权平均和,计算结果如下:
,
其中为最后一层LSTM 隐藏层的输出,/>为每个隐藏层输出的得分,/>为权重系数,/>为加权求和后的结果,softmax为激活函数。
进一步地,步骤S3中,模型评价指标precision、recall和F1-score的计算公式如下:
,
,
,
其中,TP(真正类)表示一个实例时正类并且也被判定为正类;FP(假正类)表示一个实例本为假类但判定为了正类;FN(假负类)表示一个实例本为正类但判定成为了假类;在异常检测效果中,如果将异常点看作是正类,则其它的点则被看作为假类。
本发明方法通过数据采集与预处理来丰富原始数据的特征为度,然后构建基于Attention机制的CNN-LSTM模型,采用由真实世界和人工时间序列数据文件组成的NAB数据集对模型进行训练与验证,最后将经过了预处理的真实数据输入模型,得到异常检测区间时间段的异常检测结果。本发明方法将卷积神经网络(CNN)与长短期记忆网络(LSTM)时序数据异常检测模型特点相结合,既能够通过CNN学习到数据多特征之间的空间上的相关性,而且LSTM凭借其内部的门控机制,可以有效避免梯度消失或爆炸的问题,从而能够处理更长跨度的时间序列数据,同时引入Attention(注意力)机制,对输入序列进行权重分配,使得序列中某些重要的特征更容易被捕获,从而进一步降低模型的误差。
附图说明
图1是本发明实施例提供的一种基于Attention机制的CNN-LSTM模型的供水管线运行数据异常检测方法流程图;
图2是基于Attention机制的CNN-LSTM模型结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
参照图1,一种基于Attention机制的CNN-LSTM模型的供水管线运行数据异常检测方法,具体步骤如下:
S1:数据采集与预处理;
供水管线运行数据通过在线数据采集与传输单元(如RTU、PLC等设备)采集并发送到数据中心,包括流量、流速、水压、水温、水位等数据,依次对数据进行时间序列缺失值插补、时间序列去噪、离群值检测、主要相关性因素分析等处理过程;
S2:构建基于Attention机制的CNN-LSTM模型;
基于Attention机制的CNN-LSTM模型是一种将CNN(卷积神经网络)与LSTM(长短期记忆网络)时序数据异常检测模型特点相结合的无监督异常检测模型,既能够通过CNN学习到数据多特征之间的空间上的相关性,而且LSTM凭借其内部的门控机制,可以有效避免梯度消失或爆炸的问题,从而能够处理更长跨度的时间序列数据,同时引入Attention(注意力)机制,对输入序列进行权重分配,使得序列中某些重要的特征更容易被捕获,从而进一步降低模型的误差,其结构如图2所示:
第一层是输入层,规定输入数据的格式:批大小、时间步数、特征维度,将批大小默认为1,时间步数记为t,特征维度记为n,则一条样本可表示为一个实数序列矩阵,记为/>中第i个时间步数据的向量表示;
第二层是CNN层,CNN层可以学习到数据多特征之间的空间上的相关性,弥补LSTM无法捕获数据空间分量的缺点,同时它提取出的特征仍然具有时序性;样本数据进入CNN层中会依次进行卷积、池化和节全连接操作;本模型采取一维卷积,卷积核只按照单一的时域方向进行卷积;卷积核数目为r,尺寸设置为k,则为/>中第i个时间步到第i+k-1个时间步的实数矩阵,滑动步长为1;权重矩阵/>是一个k×n的实数矩阵;对每k个时间步的序列向量进行一次特征提取,得到一个特征/>,计算公式如下:
,
是非线性的激活函数,∈R是一个偏置;当一个卷积核提取完一条样本的序列数据后,会得到一个(t-k+1)×1形状的特征图o,计算公式如下:
,
这r个特征图即为 CNN 层提取的特征,将其降维成一个长度为 r*(t-k+1)/2 的实数向量,该向量中保存了样本数据中不同特征值之间的空间联系,再输入LSTM 层中继续处理;
第三层是多层LSTM层,LSTM具有记忆功能,可以提取建管线运行非线性数据的时序变化信息;它引入了输入门、遗忘门、输出门,同时还添加了候选态、细胞态和隐状态;细胞态存储长期记忆,可以缓解梯度消失,隐状态存储短期记忆;本模型采用了多层 LSTM,上一层 LSTM 的输出是下一层的输入,一层一层往下传递,最后一层 LSTM 隐藏层的输出会进入注意力层进一步处理;
第四层是Attention层,注意力可以提高 LSTM中重要时间步的作用,从而进一步降低模型预测误差;注意力本质上就是求最后一层 LSTM 输出向量的加权平均和;LSTM 隐藏层输出向量作为注意力层的输入,通过一个全连接层进行训练,再对全连接层的输出使用 softmax 函数进行归一化,得出每一个隐藏层向量的分配权重,权重大小表示每个时间步的隐状态对于预测结果的重要程度;权重训练过程如下:
,
,
再利用训练出的权重对隐藏层输出向量求加权平均和,计算结果如下:
,
其中为最后一层LSTM 隐藏层的输出,/>为每个隐藏层输出的得分,为权重系数,/>为加权求和后的结果,softmax为激活函数;
第五层是输出层,该层规定了预测时间步,最终输出该预测时间步/>内的预测结果;
S3:训练与验证模型;
数据集采用NAB数据集,按照8:2的比例划分为训练集与测试集,它由超过50个标记的真实世界和人工时间序列数据文件组成,例如AWS服务器指标、云服务器的CPU使用率,工业设备运行参数记录等;NAB数据集是Numenta公司开源的用于评估流式时序异常检测算法的公开数据集,对于每个时间序列,均包含一个布尔型的异常值标签,该标签用于帮助我们判断是否为异常值;
模型的评价指标包括:precision、recall和F1-score;precision为精确率,也叫查准率,即异常检测模型正确识别出来的异常样本占全部预测为异常样本的比例;recall为召回率,即正确识别出来的异常样本占原数据样本中总异常样本的比例;精确率和召回率相互影响,理想状态下是追求两个都高,但实际情况是两者相互“制约”; F1-score为F1得分,则是综合了精确率和召回率的评价结果,在实际应用中,用来评价模型的好坏,该值越高则说明用于检测的模型越有效果;模型评价指标precision、recall和F1-score的计算公式如下:
,
,
,
其中,TP(真正类)表示一个实例时正类并且也被判定为正类;FP(假正类)表示一个实例本为假类但判定为了正类;FN(假负类)表示一个实例本为正类但判定成为了假类;在异常检测效果中,如果将异常点看作是正类,则其它的点则被看作为假类;
S4:异常数据检测;
将经过预处理的真实数据输入模型,得到异常检测区间时间段的异常检测结果。
Claims (5)
1.一种供水管线运行数据异常检测方法,其特征在于,具体步骤如下:
S1:数据采集与预处理;
供水管线运行数据通过在线数据采集与传输单元采集并发送到数据中心,依次对数据进行时间序列缺失值插补、时间序列去噪、离群值检测、主要相关性因素分析;
S2:构建基于Attention机制的CNN-LSTM模型;
基于Attention机制的CNN-LSTM模型是一种将CNN与LSTM时序数据异常检测模型特点相结合的无监督异常检测模型,既能够通过CNN学习到数据多特征之间的空间上的相关性,而且LSTM凭借其内部的门控机制,可以有效避免梯度消失或爆炸的问题,从而能够处理更长跨度的时间序列数据,同时引入Attention机制,对输入序列进行权重分配,使得序列中某些重要的特征更容易被捕获,从而进一步降低模型的误差,其结构如下:
第一层是输入层,规定输入数据的格式:批大小、时间步数、特征维度,将批大小默认为1,时间步数记为t,特征维度记为n,则一条样本可表示为一个实数序列矩阵,记/>为/>中第i个时间步数据的向量表示;
第二层是CNN层,CNN层可以学习到数据多特征之间的空间上的相关性,弥补LSTM无法捕获数据空间分量的缺点,同时它提取出的特征仍然具有时序性;样本数据进入CNN层中会依次进行卷积、池化和节全连接操作;
第三层是多层LSTM层,LSTM具有记忆功能,可以提取建管线运行非线性数据的时序变化信息;它引入了输入门、遗忘门、输出门,同时还添加了候选态、细胞态和隐状态;细胞态存储长期记忆,可以缓解梯度消失,隐状态存储短期记忆;本模型采用了多层 LSTM,上一层LSTM 的输出是下一层的输入,一层一层往下传递,最后一层 LSTM 隐藏层的输出会进入注意力层进一步处理;
第四层是Attention层,注意力可以提高 LSTM中重要时间步的作用,从而进一步降低模型预测误差;注意力本质上就是求最后一层 LSTM 输出向量的加权平均和;
第五层是输出层,该层规定了预测时间步,最终输出该预测时间步/>内的预测结果;
S3:训练与验证模型;
数据集采用NAB数据集,按照8:2的比例划分为训练集与测试集,它由超过50个标记的真实世界和人工时间序列数据文件组成;NAB数据集是Numenta公司开源的用于评估流式时序异常检测算法的公开数据集,对于每个时间序列,均包含一个布尔型的异常值标签,该标签用于帮助我们判断是否为异常值;
模型的评价指标包括:precision、recall和F1-score;precision为精确率,也叫查准率,即异常检测模型正确识别出来的异常样本占全部预测为异常样本的比例;recall为召回率,即正确识别出来的异常样本占原数据样本中总异常样本的比例;精确率和召回率相互影响,理想状态下是追求两个都高,但实际情况是两者相互“制约”; F1-score为F1得分,则是综合了精确率和召回率的评价结果,在实际应用中,用来评价模型的好坏,该值越高则说明用于检测的模型越有效果;
S4:异常数据检测;
将经过预处理的真实数据输入模型,得到异常检测区间时间段的异常检测结果。
2.根据权利要求1所述的供水管线运行数据异常检测方法,其特征在于:步骤S1中,供水管线的运行数据包括流量、流速、水压、水温、水位。
3.根据权利要求1或2所述的供水管线运行数据异常检测方法,其特征在于:步骤S2中,在第二层CNN层的构建中,本模型采取一维卷积,卷积核只按照单一的时域方向进行卷积;卷积核数目为r,尺寸设置为k,则为/>中第i个时间步到第i+k-1个时间步的实数矩阵,滑动步长为1;权重矩阵/>是一个k×n的实数矩阵;对每k个时间步的序列向量进行一次特征提取,得到一个特征/>,计算公式如下:
,
是非线性的激活函数,/>∈R是一个偏置;当一个卷积核提取完一条样本的序列数据后,会得到一个(t-k+1)×1形状的特征图o,计算公式如下:
,
这r个特征图即为 CNN 层提取的特征,将其降维成一个长度为 r*(t-k+1)/2 的实数向量,该向量中保存了样本数据中不同特征值之间的空间联系,再输入LSTM 层中继续处理。
4.根据权利要求1或2所述的供水管线运行数据异常检测方法,其特征在于:步骤S2中,在第四层Attention层的构建中,LSTM 隐藏层输出向量作为注意力层的输入,通过一个全连接层进行训练,再对全连接层的输出使用 softmax 函数进行归一化,得出每一个隐藏层向量的分配权重,权重大小表示每个时间步的隐状态对于预测结果的重要程度;权重训练过程如下:
,
,
再利用训练出的权重对隐藏层输出向量求加权平均和,计算结果如下:
,
其中为最后一层LSTM 隐藏层的输出,/>为每个隐藏层输出的得分,/>为权重系数,/>为加权求和后的结果,softmax为激活函数。
5.根据权利要求1或2所述的供水管线运行数据异常检测方法,其特征在于:步骤S3中,模型评价指标precision、recall和F1-score的计算公式如下:
,
,
,
其中,TP表示一个实例时正类并且也被判定为正类;FP表示一个实例本为假类但判定为了正类;FN表示一个实例本为正类但判定成为了假类;在异常检测效果中,如果将异常点看作是正类,则其它的点则被看作为假类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310893348.7A CN116842323A (zh) | 2023-07-20 | 2023-07-20 | 一种供水管线运行数据异常检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310893348.7A CN116842323A (zh) | 2023-07-20 | 2023-07-20 | 一种供水管线运行数据异常检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116842323A true CN116842323A (zh) | 2023-10-03 |
Family
ID=88163346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310893348.7A Pending CN116842323A (zh) | 2023-07-20 | 2023-07-20 | 一种供水管线运行数据异常检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116842323A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117190078A (zh) * | 2023-11-03 | 2023-12-08 | 山东省计算中心(国家超级计算济南中心) | 一种输氢管网监测数据异常检测方法及系统 |
CN118520403A (zh) * | 2024-07-22 | 2024-08-20 | 航天智融信息技术(珠海)有限责任公司 | 一种用于工业金融属性数据的自适应动态数据验真方法及系统 |
-
2023
- 2023-07-20 CN CN202310893348.7A patent/CN116842323A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117190078A (zh) * | 2023-11-03 | 2023-12-08 | 山东省计算中心(国家超级计算济南中心) | 一种输氢管网监测数据异常检测方法及系统 |
CN117190078B (zh) * | 2023-11-03 | 2024-02-09 | 山东省计算中心(国家超级计算济南中心) | 一种输氢管网监测数据异常检测方法及系统 |
CN118520403A (zh) * | 2024-07-22 | 2024-08-20 | 航天智融信息技术(珠海)有限责任公司 | 一种用于工业金融属性数据的自适应动态数据验真方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116757534B (zh) | 一种基于神经训练网络的智能冰箱可靠性分析方法 | |
CN116842323A (zh) | 一种供水管线运行数据异常检测方法 | |
CN114282443B (zh) | 基于mlp-lstm有监督联合模型的剩余使用寿命预测方法 | |
CN112731890B (zh) | 一种电厂设备故障的检测方法和装置 | |
CN111122162B (zh) | 基于欧氏距离多尺度模糊样本熵的工业系统故障检测方法 | |
CN116336400B (zh) | 油气集输管道基线检测方法 | |
Xu et al. | Global attention mechanism based deep learning for remaining useful life prediction of aero-engine | |
Son et al. | Deep learning-based anomaly detection to classify inaccurate data and damaged condition of a cable-stayed bridge | |
CN111814956A (zh) | 一种基于多维度二次特征提取的多任务学习的空气质量预测方法 | |
Lin et al. | Channel attention & temporal attention based temporal convolutional network: A dual attention framework for remaining useful life prediction of the aircraft engines | |
CN113988210A (zh) | 结构监测传感网失真数据修复方法、装置及存储介质 | |
Wang et al. | Three‐stage feature selection approach for deep learning‐based RUL prediction methods | |
CN105894014A (zh) | 基于多因素不一致度量的异常行为序贯检测方法 | |
CN117608959A (zh) | 一种基于域对抗迁移网络的飞控系统状态监测方法 | |
Zhang et al. | A flexible monitoring framework via dynamic-multilayer graph convolution network | |
CN117786374A (zh) | 一种基于图神经网络的多变量时序异常检测方法及系统 | |
Li et al. | Multiscale Feature Extension Enhanced Deep Global-Local Attention Network for Remaining Useful Life Prediction | |
CN117055527A (zh) | 一种基于变分自编码器的工业控制系统异常检测方法 | |
Zhong et al. | Industrial Robot Vibration Anomaly Detection Based on Sliding Window One‐Dimensional Convolution Autoencoder | |
CN116680639A (zh) | 一种基于深度学习的深海潜水器传感器数据的异常检测方法 | |
CN116628444A (zh) | 一种基于改进元学习的水质预警方法 | |
Becnel et al. | A deep learning approach to sensor fusion inference at the edge | |
CN115618506A (zh) | 一种单轴联合循环燃气轮机功率的预测方法 | |
Caricato et al. | Prognostic techniques for aeroengine health assessment and Remaining Useful Life estimation | |
CN111881040A (zh) | 一种基于循环神经网络的抽象状态模型的测试数据生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |