[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN114783541A - 一种预测催化裂化产品收率的方法、系统及可读存储介质 - Google Patents

一种预测催化裂化产品收率的方法、系统及可读存储介质 Download PDF

Info

Publication number
CN114783541A
CN114783541A CN202210316511.9A CN202210316511A CN114783541A CN 114783541 A CN114783541 A CN 114783541A CN 202210316511 A CN202210316511 A CN 202210316511A CN 114783541 A CN114783541 A CN 114783541A
Authority
CN
China
Prior art keywords
self
output
data
training
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210316511.9A
Other languages
English (en)
Inventor
杜文莉
罗重春
隆建
蔡智
钱锋
邹圣武
钟伟民
王涛
杨明磊
韩吉飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Petroleum and Chemical Corp
East China University of Science and Technology
Original Assignee
China Petroleum and Chemical Corp
East China University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Petroleum and Chemical Corp, East China University of Science and Technology filed Critical China Petroleum and Chemical Corp
Priority to CN202210316511.9A priority Critical patent/CN114783541A/zh
Publication of CN114783541A publication Critical patent/CN114783541A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/30Prediction of properties of chemical compounds, compositions or mixtures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Chemical & Material Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种预测催化裂化产品收率的方法,包括以下步骤:对所述数据信息进行预处理并划分样本,构建不完全训练方法训练自组织图以获取催化装置数据的特征信息;根据所述比例信息对所述自组织图的输出执行比例变换,得到变换输出信息;建立激活函数的选择设置方法;以所述变换输出信息作为激活函数参数选择后的卷积神经网络的输入,进行特征融合,预测产品收率并处理输出数据。本发明提出的方法使卷积神经网络可以更有效的针对特定的数据作出激活函数的选择,提高了预测精度。本发明还公开了一种采用上述方法的系统和可读存储介质。

Description

一种预测催化裂化产品收率的方法、系统及可读存储介质
技术领域
本发明涉及催化裂化装置的建模方法,特别是涉及一种预测催化裂化产品收率的方法、系统及可读存储介质。
背景技术
催化裂化工艺是石油炼制经过工业中重油轻质化的重要手段之一,经过催化裂化工艺得到的催化裂化(FCC-Fluid Catalytic Cracking)产品是主要的交通运输燃料。
催化裂化工艺一般为烃类油料通过雾化喷嘴进入提升管反应器中,并与来自再生器的高温催化剂接触,当烃类油料混合着高温催化剂向上流动时,烃类油料会蒸发并分解为较小的分子,将裂化后的烃类蒸汽送入精馏塔进一步分离,而失活的高温催化剂流入再生器中,在再生器中,沉积在高温催化剂表面上的焦炭被烧掉以再生催化剂,催化剂在再生过程中升温,这类经过高温的再生催化剂循环回到提升管反应器继续得到利用。整个过程中,高温催化剂也起热载体的作用,提供提升管反应器中吸热裂化反应所需的热量以及原料蒸发所需的热量。
针对提升管反应器的详细建模对于研究者来说是一项具有挑战性的任务,因为提升管反应器内不仅涉及到复杂的流体动力学和FCC进料中存在众多的未知碳氢化合物,而且提升管反应器内害同时发生了不同类型的反应。由于分析和计算的限制,原料中存在的大量未知化合物结合的催化裂化详细集总动力学模型难以用于工业规模的FCC提升管反应器的数学建模。目前主流的针对FCC提升管反应器的建模方式是使用集总动力学的方法,但是目前的方法也普遍存在着一些不足:例如机理模型需要具有化工方面的知识背景,机理模型中过于简单的集总划分往往导致模型精度低,外推性差,以及无法获得一些性质关键指标的预测结果,而提高集总数虽然可以解决上述问题,但在实际应用过程中往往由于工业条件下分析能力以及手段有限,无法获得模型需要的参数以及变量,同时过多的集总数也往往导致计算量几何倍数增长,增加了计算负荷。
发明内容
本发明的一个目的在于针对现有的催化裂化数据建模方法的不足提出一种预测催化裂化产品收率的方法。
一种预测催化裂化产品收率的方法,包括以下步骤:
获取催化裂化过程的数据信息,对所述数据信息进行噪声、补缺、异常点剔除、标准化预处理,得到自组织图-卷积神经网络模型的训练样本、验证样本和测试样本,分别用于训练模型、监测训练过程和测试模型性能过程;
根据催化装置数据特性,构建不完全训练方法训练自组织图,使自组织图更有效、更快速的针对催化裂化数据特征提取并转换生成对应包含催化操作及性质特征的输出信息;
通过输入变量数量计算所述自组织图的输出数学期望和输入数学期望的比例信息,根据所述比例信息对所述自组织图的输出执行比例变换,得到变换输出信息;
选择卷积神经网络作为特征融合方法,为卷积神经网络建立一种激活函数的选择设置方法,使卷积神经网络可以更有效的针对特定的数据作出激活函数的选择;
以所述变换输出信息作为激活函数参数选择后的卷积神经网络的输入,进行特征融合,预测产品收率并处理输出数据。
根据本发明提出的预测催化裂化产品收率的方法,训练、验证和测试样本,分别用于训练模型、监测训练过程、测试模型性能;构建训练方法能使自组织图更有效、更快速的针对催化裂化数据特征提取和转换生成对应包含催化操作及性质特征的图片;对自组织图的输出进行比例变换,有利于后续的模型训练;建立一种激活函数的选择设置方法,使卷积神经网络可以更有效的针对特定的数据作出激活函数的选择,提高了预测精度。
另外,根据本发明提供的预测催化裂化产品收率的方法,还可以具有如下附加的技术特征:
进一步地,所述根据所述特征信息构建训练方法的步骤包括:
随机生成0-1范围内初始权值,建立初始优胜邻域,设置学习率,设输入向量为x,权重向量为w,以欧式距离||w-x||2=(w-x)T(w-x)最小的神经元作为优胜神经元根据相似度函数计算相似度;
设置相似度函数为y=||w-x||2,选取相似度最大值作为目标函数,根据目标函数调整初始优胜邻域的邻域大小、标准差和权重,并调整学习率,根据调整学习率后的训练结果,设定学习率参数。
进一步地,所述训练所述不完全自组织图,得到自组织图的步骤包括:
将输入的初始自组织图的催化裂化过程输入的数据特征提取为二维特征图,转换为图片,最后以图片RGB二进制值的形式作为输出数据,得到所述不完全自组织图,所述不完全自组织图的输出尺寸为28*28;
采用所述训练方法对所述不完全自组织图执行训练,设置学习率为1时不完全自组织图的权重值,得到自组织图,其中不完全自组织图的数量为1。
进一步地,所述将所述变换输出信息输入卷积神经网络,以卷积神经网络作为特征融合方法,建立激活函数的选择设置方法的步骤之前还包括:
将所述变换输出信息乘以2/n,其中n为输入变量的个数。
进一步地,所述以卷积神经网络作为特征融合方法,建立激活函数的选择设置方法的步骤包括:
建立激活函数
Figure BDA0003568876700000041
其中x为输入向量,a、b、c、d、f均为设定参数;
对所述变换输出信息分析数据的数量级和PCA分析,建立卷积神经网络激活函数的设置方法。
进一步地,在所述激活函数中,参数设置包括以下步骤:
根据数据分析结果,数据量偏大且网络层数较深时时激活函数参数a接近于0,b趋向于1,c和d绝对值趋向于0,f此时会不断增大,此参数设置非线性拟合能力较差但具有更快的收敛速度;
数据非线性较强且网络层数较浅时,a趋向于1,b趋向于0,c和d绝对值趋向于0,f趋向于1,此参数设置具有较强的非线性拟合能力和较快的收敛速度;
当数据较为复杂且网络层较浅时,a趋向于1,b趋向于0,c和d绝对值趋向于1,而f会不断增大,此参数设置可以输出[0-1]之间的连续实值。
进一步地,所述卷积神经网络的信息如下:
结构为卷积层-池化层-卷积层-池化层-全连接层,两个卷积层和两个池化层的核大小分别为[5,5]和[1,2,2,1];
随机舍弃参数0.5;
训练次数500次;
池化方法为平均池化。
进一步地,所述卷积神经网络的模型原始输出层之后还设有数据处理层,将每个产品乘以系数100/∑raw_yieldi,其中∑raw_yieldi为产品收率总和。
本发明的另一个目的在于提出一种预测催化裂化产品收率的系统,包括:
预处理模块,用于获取催化裂化过程的数据信息,对所述数据信息进行预处理,得到训练样本、验证样本和测试样本;
特征提取模块,根据催化装置数据特性,构建不完全训练方法训练自组织图,使自组织图更有效、更快速的针对催化裂化数据特征提取;
信息变换模块,通过输入变量数量计算所述自组织图的输出数学期望和输入数学期望的比例信息,根据所述比例信息对所述自组织图的输出执行比例变换,得到变换输出信息;
激活函数设置模块,为卷积神经网络建立一种激活函数设置选择方法,使卷积神经网络可以更有效的针对特定的数据作出激活函数的选择;
输出模块,用于以所述变换输出信息作为激活函数参数选择后的卷积神经网络的输入,进行特征融合,预测产品收率并处理输出数据。本发明还提出一种可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现上述的预测催化裂化产品收率的方法。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明第一实施例的预测催化裂化产品收率的方法的流程示意图;
图2是本发明输入变量的PCA得分图;
图3是本发明输入输出变量的PCA得分图;
图4是本发明提供自组织图-卷积神经网络模型框架图;
图5是本发明提供的自组织图普通训练方法训练特征提取二维RGB图;
图6是本发明提供的按照不完全训练方法取学习率为1时训练自组织图后,特征提取的二维RGB图;
图7是本发明提供模型对三种产品收率训练样本点与实际值线的分布情况图;
图8是本发明提供模型对三种产品收率训练样本与实际值之间的误差分布图;
图9是本发明提供模型对三种产品收率测试样本点与实际值线的分布情况图;
图10是本发明提供模型对三种产品收率测试样本与实际值之间的误差分布图。
具体实施方式
为使本发明的目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
请参阅图1,本发明的第一实施例提出一种预测催化裂化产品收率的方法,包括以下步骤。
S1.获取催化裂化过程的数据信息,对所述数据信息进行噪声、补缺、异常点剔除、标准化预处理,得到自组织图-卷积神经网络模型的训练样本、验证样本和测试样本,分别用于训练模型、监测训练过程和测试模型性能过程。
在本实施例中,数据来源为炼油实际的生产催化裂化装置,采集周期为2年。根据装置实际运行特性,将采样时间间隔设置为六个小时。每个输入变量都有对应的上限和下限,上下限由装置操作人员确定。如果某一输入变量超过对应的上下限,则将其设置为对应的上限或下限值。本方法收集的数据范围几乎覆盖了该催化裂化装置的一个完整运行周期,因此收集的数据可以很好地代表该装置的运行特性。
具体的,催化裂化过程的数据信息包括输入变量和输出产率,预处理包括将异常点数据删除或填充均值和归一化,并且随机划分为训练、验证和测试样本,分别用于训练模型、监测训练过程、测试模型性能。
在本实施例中,按照时间顺序划分训练样本和测试样本。其中,前70%的样本作为训练样本,后30%样本作为测试样本,训练样本中随机选出10%样本作为验证样本来监测训练过程(验证样本不直接用于模型的训练,训练样本+验证样本+测试样本=总样本)。
请参阅图2和图3,为了进一步观察训练样本和测试样本之间的关系和差异,图2展示了数据集中的所有输入变量在PCA(Principal Component Analysis)主成分上的投影(得分图),图3中前两个主成分(PC-1和PC-2)用于表示样本中的操作模式信息。通常,两个样本在得分图中距离越近,则它们代表的操作模式越相似。相反,两个距离很远的样本则代表截然不同的操作模式,从图可以看出,训练样本和测试样本之间几乎没有重叠。这表明测试样本和训练分别代表了不同的操作模式。因此,数据集可用于测试不同模型的外推能力。
另外,由于这些变量具有不同的物理含义和数量级,因此在将这些数据直接用于训练神经网络之前,需要对它们进行归一化操作。在本方法中,训练样本中的所有变量均根据公式
Figure BDA0003568876700000081
归一化到区间[0,1]。这里,将输入变量的归一化参数(包括xmin和xmax)记为npi,输出变量的归一化参数记为npo。在模型测试阶段,测试样本中的输入变量根据参数npi进行归一化,模型给出的输出变量根据参数npo进行反归一化:x=X×(xmax-xmin)+xmin
为了演示在线建模方案,这里我们采用另一炼油厂(记为炼油厂B)的催化裂化装置作为数据源。这些过程数据收集于2017年8月至2019年11月,时间间隔为6小时。为了对该催化裂化过程进行建模,我们收集了57个原始变量,包括进料流量和性质、再生催化剂的性质、反应器操作条件、稳定塔操作条件、解吸塔的操作条件和产品流量等。在直接使用这些数据之前,需要进行预处理,以处理错误的数据、噪声、异常值和进行一些必要的转换。具体的预处理步骤如下:
a)如果某一样本中出现缺失数据,则此样本将从数据集中移除。在所研究的催化裂化过程中,所有的数据缺失都是由装置关停或网络技术故障造成的;
b)产品收率按照如下方式计算:
Figure BDA0003568876700000082
Figure BDA0003568876700000083
c)在计算完产品收率之后,一些辅助变量,如气体产品的相对密度、产品流量等变量将从数据集中移除,因为本节旨在预测产品收率而非流量;
d)采用3Sigma准则去除带有严重测量误差的数据(离群点);
e)采用时间窗口为24小时的滑动平均方法滤除测量噪声。
经过以上的数据预处理,我们最后得到2858个样本作为数据集,其中输入变量50个、输出变量3个(3个产品收率)。
S2.根据催化装置数据特性,构建不完全训练方法训练自组织图,使自组织图更有效、更快速的针对催化裂化数据特征提取并转换生成对应包含催化操作及性质特征的输出信息。
可以理解的是,自组织图是一种高维数据可视化和降维方法。自组织图将高维数据映射到低维(通常为2维)空间(称之为特征图)。假设我们有N个输入变量S={x1,...,xN},其中xi∈Rn,i=1,...,N。自组织图中的每个节点(神经元)有一个权重向量wj∈Rn,j=1,....,q,其中q为自组织图中的神经元数量。则与输入xi对应的自组织图的输出为:
yj=wj Txi,j=1,...,q
自组织图的训练过程是无监督的。当自组织图的输入为xi时,则以wc为权值的神经元:
Figure BDA0003568876700000091
被称为获胜神经元(winner),即winner与xi最相似(距离最近)。上面的距离度量通常采用欧几里得距离。
当winner确定之后,每个神经元的权值根据如下规则调整:
wj(t+1)=wj(t)+hj(t)(wi-wj(t)),j=1,...,q
其中t代表迭代次数。hj(t)为领域函数,其值随着t的增加而递减。在本方法中,hj(t)的定义如下:
Figure BDA0003568876700000092
其中α(t)代表学习率,随着t的增加而下降。dist(c,j)为神经元c和j在特征图中的几何距离。σ(t)为t的递减函数,代表hj(t)的作用宽度。当t>T时(T是最大迭代次数),自组织图的训练过程停止。
在本实施例中,所述根据所述特征信息构建训练方法的步骤包括:
S21.随机生成0-1范围内初始权值,建立初始优胜邻域,设置学习率,设输入向量为x,权重向量为w,以欧式距离||w-x||2=(w-x)T(w-x)最小的神经元作为优胜神经元根据相似度函数计算相似度;
S22.设置相似度函数为y=||w-x||2,选取相似度最大值作为目标函数,根据目标函数调整初始优胜邻域的邻域大小、标准差和权重,并调整学习率,根据调整学习率后的训练结果,设定学习率参数。
更进步一地,所述训练所述不完全自组织图,得到自组织图的步骤包括:
S23.将输入的初始自组织图的催化裂化过程输入的数据特征提取为二维特征图,转换为图片,最后以图片RGB二进制值的形式作为输出数据,得到所述不完全自组织图,所述不完全自组织图的输出尺寸为28*28;
S24.采用所述训练方法对所述不完全自组织图执行训练,设置学习率为1时不完全自组织图的权重值,得到自组织图,其中不完全自组织图的数量为1。
需要说明的是,在本实施例中,按不完全训练方法设置学习率为1时自组织图的权值作为自组织图中神经元的初始权值,以提高模型性能。在方法中,我们将进行实验比较上述两种训练方法在不同自组织图输出尺寸下的预测效果,即自组织图权值由不完全训练过程确定(记WH-Train)、自组织图权值由普通训练过程确定(记为WTrain)。这里,所选用的七组自组织图输出尺寸为:20×20、28×28、36×36、52×52、100×100、120×120和148×148。对于WTrain,训练自组织图的迭代次数为100,批量大小为训练样本数量的1%。其他参数设置如下:自组织图-卷积神经网络结构:1-8-16-30;卷积神经网络训练代数:500;激活函数:默认参数设置;池化方法:平均池化;随机舍弃:0.5。每种训练方法单独运行30次。
模型预测结果表明,当自组织图输出尺寸小于100×100时,WH-Train方法所获得的平均绝对误差(MAE)远小于WTrain方法。另外,当采用WH-Train方法时,随着自组织图输出尺寸增加(即可训练参数的数量增加),MAE倾向于先略微减小,然后再增加。这表明当可训练参数数量太小时,模型处于欠拟合状态;而当可训练参数数量太大时,模型处于过拟合状态。当自组织图输出尺寸为28×28时,模型可获得最佳性能(较小的MAE和方差)。在基于以上分析,自组织图的默认设置为:不完全训练学习率为1,输出尺寸为28×28,因此这一默认设置将应用于后续的所有实验中。
需要说明的是,在本实施例提出的自组织图-卷积神经网络模型框架中,可以采用多个自组织图将相同的输入变量映射到多个二维特征图中。这类似于将具有三个通道(红、绿、蓝)的彩色图像呈现给卷积神经网络的情况。在本方法中,我们将进行三种对比自组织图数量∈{1,2,3})来对比自组织图数量对测试性能的影响。其他参数设置如下:自组织图-卷积神经网络的结构:x-8-16-30(x为自组织图的数量);激活函数:默认参数设置;池化方法:平均池化;卷积神经网络训练代数:500。每种情况各独立运行30次。
结果表明,当自组织图的数量(≤3)对模型的性能影响很小,这主要是由于对于本方法研究的催化裂化对象而言,输出尺寸为28×28的1个自组织图已能充分挖掘输入变量中的特征,这时增加自组织图数量已不能显著增加过程特征。因此,在以下实验中,我们将默认使用一个自组织图来简化应用并减少模型参数。
S3.通过输入变量数量计算所述自组织图的输出数学期望和输入数学期望的比例信息,根据所述比例信息对所述自组织图的输出执行比例变换,得到变换输出信息。
具体的,根据所述比例信息对所述自组织图的输出执行比例变换的步骤包括:
将所述变换输出信息乘以2/n,其中n为输入变量的个数。
需要说明的是,在完全的自组织图训练过程中,相邻神经元往往具有相似的权重调整幅度,因此相邻神经元通常具有相似的输出值。图示5给出了经过训练的自组织图输出的一个示例(每个神经元的输出值已经乘以了2/n,n为输入变量个数)。在这种情况下,特征图中局部区域内的信息是冗余的,这会为卷积神经网络的训练过程提供非常少的信息。为了解决此问题,自组织图-卷积神经网络中的自组织图是不完全训练的。具体而言,所有权重均在[0,1]范围内随机生成,并在学习率从0.01不断增大时对比各个目标函数值的变化,选择针对催化裂化过程数据最优的效果学习率。本方法选择的学习率为1,不完全训练的自组织图输出的一个示例如图6所示(每个神经元的输出值已经乘以了2/n,n为输入变量个数)。使自组织图不完全训练,主要有两方面的优势。首先,这降低了计算复杂性并简化了应用过程。其次,这增加了自组织图特征图中局部区域内的信息熵,从而提高了模型预测精度和计算速度。如图5和图6分别表示完全训练和不完全训练的自组织图对输入数据的特征提取结果。
S4.选择卷积神经网络作为特征融合方法,为卷积神经网络建立一种激活函数的选择设置方法,使卷积神经网络可以更有效的针对特定的数据作出激活函数的选择。
可以理解的是,卷积神经网络通常包含三种类型的网络层,即卷积层、池化层(Pool)和全连接层。一个卷积层由不同的特征图组成,特征图中的每个神经元通过一组权重连接到上一层中的某一局部区域。一个特征图中的所有神经元共享相同的卷积核,一个卷积层中的不同特征图拥有不同的卷积核。池化层通常位于卷积层之后,池化层中的每个神经元连接到上一层中的某一局部区域。典型的池化操作包括最大池化和平均池化,分别计算上一层中某一局部区域中所有神经元的最大值和平均值。值得注意的是,最大或平均池化层中没有可训练的参数。当卷积神经网络包含几个卷积层和池化层后,通常最后会包含1个或几个全连接层,用于综合前部分网络学习到的特征。顾名思义,全连接层中的每个神经元都和前一层中的所有神经元连接。
具体的,所述以卷积神经网络作为特征融合方法,建立激活函数的选择设置方法的步骤包括:
S41.建立激活函数
Figure BDA0003568876700000131
Figure BDA0003568876700000132
其中x为输入向量,a、b、c、d、f均为设定参数;
S42.对所述变换输出信息分析数据的数量级和PCA分析,建立卷积神经网络激活函数的设置方法。
其中,在所述激活函数中,参数设置包括以下步骤:
(a)根据数据分析结果,数据量偏大且网络层数较深时时激活函数参数a接近于0,b趋向于1,c和d绝对值趋向于0,f此时会不断增大,此参数设置非线性拟合能力较差但具有更快的收敛速度;
(b)数据非线性较强且网络层数较浅时,a趋向于1,b趋向于0,c和d绝对值趋向于0,f趋向于1,此参数设置具有较强的非线性拟合能力和较快的收敛速度;
(c)当数据较为复杂且网络层较浅时,a趋向于1,b趋向于0,c和d绝对值趋向于1,而f会不断增大,此参数设置可以输出[0-1]之间的连续实值。
具体的,前述激活函数
Figure BDA0003568876700000133
Figure BDA0003568876700000141
作为默认的激活函数,根据输入数据的主成分分析可以看出,输入数据是典型的非线性数据,并且由于数据输入的网络层数仅仅有两个卷积层两个池化层一个全连接层和一个输出层,网络结构较浅。激活函数的参数设定a=1.001,b=0.0002,c=0.0007,d=0.001,f=1,此时激活函数具有较为强大的非线性拟合能力并且梯度消失现象可以忽略不计,作为本方法激活函数默认参数设置。
在本实施例中,所述卷积神经网络的信息如下:
结构为卷积层-池化层-卷积层-池化层-全连接层,两个卷积层和两个池化层的核大小分别为[5,5]和[1,2,2,1];
随机舍弃参数0.5;
训练次数500次;
池化方法为平均池化。
应道指出的是,卷积神经网络通常包含三种类型的网络层,即卷积层、池化层(Pool)和全连接层。一个卷积层由不同的特征图组成,特征图中的每个神经元通过一组权重连接到上一层中的某一局部区域。一个特征图中的所有神经元共享相同的卷积核,一个卷积层中的不同特征图拥有不同的卷积核。池化层通常位于卷积层之后,池化层中的每个神经元连接到上一层中的某一局部区域。典型的池化操作包括最大池化和平均池化,分别计算上一层中某一局部区域中所有神经元的最大值和平均值。值得注意的是,最大或平均池化层中没有可训练的参数。当卷积神经网络包含几个卷积层和池化层后,通常最后会包含1个或几个全连接层,用于综合前部分网络学习到的特征。顾名思义,全连接层中的每个神经元都和前一层中的所有神经元连接。
需要说明的是,池化操作汇总了前一层网络中局部区域内神经元的输出信息。比较典型的池化方法有两种:最大池化和平均池化,这两种方法分别将输入变量的最大值和平均值作为池化操作的输出。平均池化的性能在处理催化裂化过程数据显著优于最大池化。这主要是因为在最大池化操作中,一些有用的输入信息被舍弃了。由于本方法自组织图输出的特征图中每个神经元的输出均与其相邻的神经元不同,因此在这种情况下,最大池化的应用效果不佳。基于以上分析,平均池化将作为催化裂化过程建模中的默认池化方法,并应用于后续的实验中。
另外,随机舍弃作为一种正则化方法,首先由Hinton等人提出。据报道,随机舍弃可以提高神经网络在语音和对象识别方面的性能。随机舍弃的含义是指:在训练过程中,网络中某些神经元的输出会被随机丢弃;但在测试过程中,所有神经元的输出都包含在网络中。应用随机舍弃可防止网络变得过于依赖某些特定的神经元。本方法仅在全连接层中采用随机舍弃,并随机舍弃设置为0.5。其他参数设置如下:自组织图-卷积神经网络的结构:1-8-16-30;激活函数:本方法默认激活函数;池化方法:平均池化;卷积神经网络训练代数:500。在以下实验中,除非明确说明,否则随机舍弃=0.5将作为自组织图-卷积神经网络的默认设置。
请参阅图4,为自组织图-卷积神经网络模型框架,在该框架中,自组织图将输入变量映射到二维空间。应用自组织图的原因主要有两方面:一方面,卷积神经网络已成功应用于计算机视觉领域,其典型输入是二维图像。卷积神经网络的学习过程是将较低级别的特征组合为较高级别的特征。另一方面,将输入变量映射到二维特征图后,可通过自组织图中各神经元权值提供不同变量的更多组合,从而生成更多局部特征。
本实施例所采用的卷积神经网络模型结构为conv-pool-conv-pool-fc-output。在每个conv层和fc层之后,应用激活函数来增加模型的非线性映射能力。两个卷积层和两个池化层的核大小分别为[5,5]和[1,2,2,1]。在自组织图-卷积神经网络中,卷积神经网络输出层中的神经元数量等于过程输出变量的数量,即所有输出变量都由一个自组织图-卷积神经网络模型给出。
在本实施例中,采用均方误差(Mean Square Error,MSE)作为训练卷积神经网络的损失函数。卷积神经网络参数优化器为Adam,初始学习率为0.001,样本批量大小为50。当达到预定的训练代数后,训练过程停止。将在某一代数时于验证样本上表现最佳的参数作为模型最终参数,用于评估其在测试样本上的性能。
为了更好地说明本发明,选择五种自组织图-卷积神经网络结构(见表1),每种网络结构独立运行30次实验。其他参数设置如下:激活函数:本方法默认参数设置;池化方法:平均池化;卷积神经网络训练代数:500。图示给出了不同模型结构的测试结果。随着可训练参数数量的增加,平均绝对误差(MAE)总体上先减小再增大。当自组织图-卷积神经网络的结构为1-08-16-30时,可以获得最佳性能(针对MAE的方差和中值而言)。这表明当可训练参数的数量太小时,网络的拟合能力将会减弱(欠拟合),而当可训练参数的数量过大时,网络则会出现过拟合。基于以上分析,本方法使用1-08-16-30作为自组织图-卷积神经网络的结构来对本方法研究的催化裂化过程进行建模。
表1
Figure BDA0003568876700000161
Figure BDA0003568876700000171
S5.以所述变换输出信息作为激活函数参数选择后的卷积神经网络的输入,进行特征融合,预测产品收率并处理输出数据。
为了预测炼油厂中催化裂化装置的产品收率,这里直接使用前述采用的自组织图-卷积神经网络结构和其他超参数。卷积神经网络训练代数和Δn的设置与上述实验相同。三种产品收率的训练结果和测试结果如图10所示,其中横坐标代表样本在测试数据集中的索引(按日期排序),这一结果来自于与10次运行平均MAE最接近的一次运行结果。输入变量的PCA得分图如图2所示,其中Stagei代表算法2.2中第i个循环。表给出了模型误差的统计数据。
采用上述方法分别对柴油产率、汽油产率和油浆产率的预测误差如表2所示。
表2
Figure BDA0003568876700000172
本发明的第二实施例提出一种预测催化裂化产品收率的方法,本实施例与第一实施例基本一致,不同之处在于以下内容。
具体的,所述卷积神经网络的模型原始输出层之后还设有数据处理层,将每个产品乘以系数100/∑raw_yieldi,其中∑raw_yieldi为产品收率总和。
需要说明的是,模型的输出与理论分析输出存在些许偏差,通过模型预测的产品收率总和通常不完全等于100,为了解决此问题,我们在模型原始输出层之后加入一个数据处理层,将每个产品乘以系数(100/∑raw_yieldi),即100除以产品收率总和。
自组织图-卷积神经网络模型的最终输出为经过数据处理层调整后的输出。在本工作中,采用格式n1-n2-n3-n4表示自组织图-卷积神经网络的结构,其中n1为自组织图的数量,n2和n3为第一、第二卷积层中特征图的数量,n4为全连接层中神经元的数量。输入和输出变量的数量由对应数据集确定。
本发明第三实施例提出一种预测催化裂化产品收率的系统,包括:
预处理模块,用于获取催化裂化过程的数据信息,对所述数据信息进行预处理,得到训练样本、验证样本和测试样本;
特征提取模块,根据催化装置数据特性,构建不完全训练方法训练自组织图,使自组织图更有效、更快速的针对催化裂化数据特征提取;
信息变换模块,通过输入变量数量计算所述自组织图的输出数学期望和输入数学期望的比例信息,根据所述比例信息对所述自组织图的输出执行数学比例变换,得到变换输出信息;
激活函数设置模块,为卷积神经网络建立一种激活函数设置选择方法,使卷积神经网络可以更有效的针对特定的数据作出激活函数的选择;
输出模块,用于以所述变换输出信息作为激活函数参数选择后的卷积神经网络的输入,进行特征融合,预测产品收率并处理输出数据。本实施例的训练、验证和测试样本,分别用于训练模型、监测训练过程、测试模型性能;构建训练方法能使自组织图更有效、更快速的针对催化裂化数据特征提取和转换生成对应包含催化操作及性质特征的图片;对自组织图的输出进行比例变换,有利于后续的模型训练;建立一种激活函数的选择设置方法,使卷积神经网络可以更有效的针对特定的数据作出激活函数的选择。
本发明第四实施例提出一种可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现上述的预测催化裂化产品收率的方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种预测催化裂化产品收率的方法,其特征在于,包括以下步骤:
获取催化裂化过程的数据信息,对所述数据信息进行噪声、补缺、异常点剔除、标准化预处理,得到自组织图-卷积神经网络模型的训练样本、验证样本和测试样本,分别用于训练模型、监测训练过程和测试模型性能过程;
根据催化装置数据特性,构建不完全训练方法训练自组织图,针对催化裂化数据特征提取并转换生成对应包含催化操作及性质特征的输出信息;
通过输入变量数量计算所述自组织图的输出数学期望和输入数学期望的比例信息,根据所述比例信息对所述自组织图的输出执行比例变换,得到变换输出信息;
选择卷积神经网络作为特征融合方法,为卷积神经网络建立一种激活函数的选择设置方法。
以所述变换输出信息作为激活函数参数选择后的卷积神经网络的输入,进行特征融合,预测产品收率并处理输出数据。
2.根据权利要求1所述的预测催化裂化产品收率的方法,其特征在于,所述根据所述特征信息构建训练方法的步骤包括:
随机生成0-1范围内初始权值,建立初始优胜邻域,设置学习率,设输入向量为x,权重向量为w,以欧式距离||w-x||2=(w-x)T(w-x)最小的神经元作为优胜神经元根据相似度函数计算相似度;
设置相似度函数为y=||w-x||2,选取相似度最大值作为目标函数,根据目标函数调整初始优胜邻域的邻域大小、标准差和权重,并调整学习率,根据调整学习率后的训练结果,设定学习率参数。
3.根据权利要求1所述的预测催化裂化产品收率的方法,其特征在于,所述训练所述不完全自组织图,得到自组织图的步骤包括:
将输入的初始自组织图的催化裂化过程输入的数据特征提取为二维特征图,转换为图片,最后以图片RGB二进制值的形式作为输出数据,得到所述不完全自组织图,所述不完全自组织图的输出尺寸为28*28;
采用所述训练方法对所述不完全自组织图执行训练,设置学习率为1时不完全自组织图的权重值,得到自组织图,其中不完全自组织图的数量为1。
4.根据权利要求1所述的预测催化裂化产品收率的方法,其特征在于,所述通过输入变量数量计算所述自组织图的输出数学期望和输入数学期望的比例信息,根据所述比例信息对所述自组织图的输出执行比例变换,得到变换输出信息的步骤包括:
自组织图的输出数学期望值大约是输入数学期望值的n/2倍,将该值乘以2/n后得到变换的输出信息用作卷积神经网络输入,其中n为输入变量的个数。
5.根据权利要求1所述的预测催化裂化产品收率的方法,其特征在于,所述以卷积神经网络作为特征融合方法,建立激活函数的选择设置方法的步骤包括:
建立激活函数
Figure FDA0003568876690000021
其中x为输入向量,a、b、c、d、f均为设定参数;
对所述变换输出信息分析数据的数量级和PCA分析,建立卷积神经网络激活函数的设置方法。
6.根据权利要求5所述的预测催化裂化产品收率的方法,其特征在于,在所述激活函数中,参数设置包括以下步骤:
根据数据分析结果,数据量偏大且网络层数较深时时激活函数参数a接近于0,b趋向于1,c和d绝对值趋向于0,f此时会不断增大,此参数设置非线性拟合能力较差但具有更快的收敛速度;
数据非线性较强且网络层数较浅时,a趋向于1,b趋向于0,c和d绝对值趋向于0,f趋向于1,此参数设置具有较强的非线性拟合能力和较快的收敛速度;
当数据较为复杂且网络层较浅时,a趋向于1,b趋向于0,c和d绝对值趋向于1,而f会不断增大,此参数设置可以输出[0-1]之间的连续实值。
7.根据权利要求1所述的预测催化裂化产品收率的方法,其特征在于,所述卷积神经网络的信息如下:
结构为卷积层-池化层-卷积层-池化层-全连接层,两个卷积层和两个池化层的核大小分别为[5,5]和[1,2,2,1];
随机舍弃参数0.5;
训练次数500次;
池化方法为平均池化。
8.根据权利要求7所述的预测催化裂化产品收率的方法,其特征在于,所述卷积神经网络的模型原始输出层之后还设有数据处理层,将每个产品乘以系数100/∑raw_yieldi,其中∑raw_yieldi为产品收率总和。
9.一种预测催化裂化产品收率的系统,其特征在于,包括:
预处理模块,用于获取催化裂化过程的数据信息,对所述数据信息进行预处理,得到训练样本、验证样本和测试样本;
特征提取模块,根据催化装置数据特性,构建不完全训练方法训练自组织图,针对催化裂化数据特征提取;
信息变换模块,通过输入变量数量计算所述自组织图的输出数学期望和输入数学期望的比例信息,根据所述比例信息对所述自组织图的输出执行比例变换,得到变换输出信息;
激活函数设置模块,为卷积神经网络建立激活函数的选择设置方法;
输出模块,用于以所述变换输出信息作为激活函数参数选择后的卷积神经网络的输入,进行特征融合,预测产品收率并处理输出数据。
10.一种可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1至8任意一项所述的方法。
CN202210316511.9A 2022-03-28 2022-03-28 一种预测催化裂化产品收率的方法、系统及可读存储介质 Pending CN114783541A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210316511.9A CN114783541A (zh) 2022-03-28 2022-03-28 一种预测催化裂化产品收率的方法、系统及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210316511.9A CN114783541A (zh) 2022-03-28 2022-03-28 一种预测催化裂化产品收率的方法、系统及可读存储介质

Publications (1)

Publication Number Publication Date
CN114783541A true CN114783541A (zh) 2022-07-22

Family

ID=82425692

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210316511.9A Pending CN114783541A (zh) 2022-03-28 2022-03-28 一种预测催化裂化产品收率的方法、系统及可读存储介质

Country Status (1)

Country Link
CN (1) CN114783541A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024021536A1 (zh) * 2022-07-27 2024-02-01 华东理工大学 一种融合时序特征提取的催化裂化装置关键指标建模方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024021536A1 (zh) * 2022-07-27 2024-02-01 华东理工大学 一种融合时序特征提取的催化裂化装置关键指标建模方法

Similar Documents

Publication Publication Date Title
Yuan et al. A dynamic CNN for nonlinear dynamic feature learning in soft sensor modeling of industrial process data
WO2024021536A1 (zh) 一种融合时序特征提取的催化裂化装置关键指标建模方法
Islam et al. Machine learning for phase selection in multi-principal element alloys
Wang et al. LDA-based deep transfer learning for fault diagnosis in industrial chemical processes
Napoli et al. Soft Sensor design for a Topping process in the case of small datasets
WO2023040512A1 (zh) 一种基于分子级机理模型与大数据技术的催化裂化装置模拟预测方法
CN106845796B (zh) 一种加氢裂化流程产品质量在线预测方法
CN112749849A (zh) 连续催化重整工艺过程关键参数的集成学习在线预测方法
WO2020147461A1 (zh) 一种基于数据驱动的溶剂脱沥青装置建模及优化方法
Alhajree et al. Modeling and optimization of an industrial hydrocracker plant
US11557376B2 (en) Rapid assessment of crude oil fouling propensity to prevent refinery fouling
CN114783541A (zh) 一种预测催化裂化产品收率的方法、系统及可读存储介质
CN105740960B (zh) 一种工业加氢裂化反应条件的优化方法
Gueddar et al. Disaggregation–aggregation based model reduction for refinery-wide optimization
CN108287474B (zh) 基于原料不确定性的催化重整反应器鲁棒操作优化方法
Zhu et al. Data-driven models of crude distillation units for production planning and for operations monitoring
CN1327376C (zh) 基于支持向量机的软测量仪表建模方法
Li et al. Predictive analytics for octane number: a novel hybrid approach of KPCA and GS-PSO-SVR model
WO2023202345A1 (zh) 一种基于层次基团构建的纯组分炼化性质的预测方法
Zhu et al. Multiple input self-organizing-map ResNet model for optimization of petroleum refinery conversion units
Dias et al. Forecasting the research octane number in a Continuous Catalyst Regeneration (CCR) reformer
Yuan et al. Stacked attention-based autoencoder with feature fusion and its application for quality prediction
Wang et al. Industrial units modeling using self-attention network based on feature selection and pattern classification
Vasseghian et al. Artificial Intelligent modeling and optimizing of an industrial hydrocracker plant
CN113035287B (zh) 一种蒸汽热裂解过程的预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication