CN109035223A - 一种用于卫星遥感图像可用度的智能评估方法 - Google Patents
一种用于卫星遥感图像可用度的智能评估方法 Download PDFInfo
- Publication number
- CN109035223A CN109035223A CN201810755911.3A CN201810755911A CN109035223A CN 109035223 A CN109035223 A CN 109035223A CN 201810755911 A CN201810755911 A CN 201810755911A CN 109035223 A CN109035223 A CN 109035223A
- Authority
- CN
- China
- Prior art keywords
- availability
- remote sensing
- cloud
- image
- sensing image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 238000013467 fragmentation Methods 0.000 claims abstract description 10
- 238000006062 fragmentation reaction Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 42
- 238000013210 evaluation model Methods 0.000 claims description 25
- 230000005284 excitation Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000003044 adaptive effect Effects 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- VMXUWOKSQNHOCA-UKTHLTGXSA-N ranitidine Chemical compound [O-][N+](=O)\C=C(/NC)NCCSCC1=CC=C(CN(C)C)O1 VMXUWOKSQNHOCA-UKTHLTGXSA-N 0.000 abstract 2
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000004075 alteration Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30192—Weather; Meteorology
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种用于卫星遥感图像可用度的智能评估方法,包括如下步骤:S1:图像输入;S2:根据用户需求输入地物类型并计算该地物类型的地物影响参数;S3:对步骤S1输入的图像进行云检测;S4:根据云检测结果计算云厚度、云破碎度、云覆盖率;S5:将步骤S4中计算的云厚度、云破碎度、云覆盖率输入遥感图像可用度评估模型计算对应遥感图像的客观可用度;S6:根据步骤S5中计算的客观可用度和步骤S2中计算的地物影响参数计算遥感图像的最终可用度级别;S7:根据最终可用度级别输出对应的遥感图像。本发明提出了一种遥感图像可用度的智能评估方法,结合影响可用度的客观因素和有关用户需求的主观影响,通过合理的步骤设计,用来实现图像可用度评估。
Description
技术领域
本发明涉及遥感图像应用领域,更具体的说,涉及一种用于卫星遥感图像可用度的智能评估方法。
背景技术
随着遥感和太空技术的快速发展,卫星遥感图像以其覆盖面积大、时间有效性强、数据地理综合性好等优点,越来越多地应用在地球资源调查,自然灾害预测预报,环境污染监测,卫星气象预报,以及地面目标识别等各个方面。高质量卫星遥感图像获取及解译已经成为国民经济和国防技术发展的重要支撑技术之一。
由于云遮挡问题使后续的图像目标识别、图像分类和地面信息提取精度下降,甚至造成错误结果,影响遥感图像的使用。同时,云覆盖图像还会占据通讯通道和存储空间,浪费信道和地面设备资源。因此,通过传感器获取的卫星遥感图像由于云覆盖等信息获取过程中产生的对地物信息的干扰问题,难以直接用于地面服务,需要对图像的可用度进行评估分类,以充分利用更为有效的地物信息。所以,遥感图像的可用度评估是遥感图像充分使用的关键技术之一。
可用度智能评估方法主要针对光学卫星遥感图像中的云厚薄、分布、面积、阴影,以及下垫面复杂度等影响图像可用度的因素,利用图像处理、模式识别、概率统计、人工智能等方法,建立图像可用度评价模型,保证可用度评价结果与人的判读结果尽可能相同,从而能够代替人工判读方法,自动分类得到用户需要的图像数据。要达到智能评估的要求,首先要求能对一幅图像可用度作出客观评估,即在提供给用户使用之前,根据可用度客观影响因子,利用机器智能的方法对图像进行自动分类定级,使评价结果正确,能够取代专业人员目视判读的工作。
所以可用度客观评估方法本质上是要解决是对图像进行正确分类的问题,按照指定的标准,将图像类别划分成若干等级,每一个可用度等级代表了一种图像类型。这个问题属于模式识别的研究范畴,利用计算机对某些图像对象进行分类,在错误概率最小的条件下,使识别的结果尽量与客观事物相符,即用计算机来实现人对图像的分析、描述、判断和可用度的评价。为了达到这个目的,我们利用人工判读的结果来训练自动分类器,属于有监督分类的范畴,即使用专业分类人员事先提供的已知可用度类别图像,作为训练样本对分类器进行训练和监督,然后对图像进行分类。
目前中国卫星图像市场未形成完善的市场体系,仍以人工判读结果为最主要依据,而机器判读仿佛希望从样本中寻找客观的规律性强的东西,若己有样本的规律性不强,在预测时就只能发挥其记忆功能,对未接触过的样本,其效果会大打折扣。图像使用要求的针对性强、突发性事件的影响较大。虽然在模型中以有限的训练样本反映了一些影响图像可用度评级的基本因素,但要做到全面反映还是比较困难的。
发明内容
为解决现有技术中存在的问题,本发明旨在一种遥感图像可用度的智能评估方法,结合影响可用度的客观因素和有关用户需求的主观影响,通过合理的步骤设计,用来实现遥感图像可用度评估。
为此,本发明提供如下技术方案:一种用于卫星遥感图像可用度的智能评估方法,其特征在于,包括如下步骤:
S1:图像输入;
S2:根据用户需求输入地物类型并计算该地物类型的地物影响参数β;
S3:对步骤S1中输入的图像进行云检测;
S4:根据云检测结果计算云厚度、云破碎度、云覆盖率;
S5:将步骤S4中计算的云厚度、云破碎度、云覆盖率输入遥感图像可用度评估模型计算对应遥感图像的客观可用度output(cloud);
S6:根据步骤S5中计算的客观可用度和步骤S2中计算的地物影响参数计算遥感图像的最终可用度级别;
其中,遥感图像的最终可用度级别根据公式(1)确定:
FA=output(cloud)×β (1)
其中,output(cloud)为遥感图像的客观可用度,β为地物影响参数;
S7:根据步骤S6中计算的遥感图像的最终可用度级别输出对应的遥感图像。
其中,地物类型包括海洋、沙漠、山脉、绿地、城市,其中,输入的图像为中巴卫星图像。
优选地,所述步骤S2中地物影响参数根据公式(2)确定:
β=1+flag×ρ-flag (2)
其中,若用户需要输入地物类型,则flag=1,若用户不需要输入地物类型,flag=0;
当flag=1时,检测用户输入的地物类型,统计地物类型的总面积S地,统计遥感图像的所有地物类型的总面积S总,则地物影响系数为若用户指定不需要某些地物类型时,
优选地,所述步骤S5中客观可用度output(cloud)根据公式(3)确定:
其中,outputmf为每条模糊规则输出的可用度等级,Wi为激励强度线性参数,i=1,2,3.....27;
优选地,所述步骤S1中图像输入包括以下步骤:
1)读入图像;
2)将读入的图像进行色差校正;
3)将读入的图像进行分辨率归一;
4)保留色差校正后的HSI分量值,并且通过RGB模型计算其灰度分量gray,gray=0.299×R+0.587×G+0.114×B,将HSI三分量和灰度分量gray作为云检测的数据输入保存;
其中,R、G、B分别为像素的红、绿、蓝分量;
色差校正是将RGB模型转换成HSI,保留H色调分量,对S(饱和度)和I(强度)分量运用直方图均衡算法,然后将新的HSI分量保存,并显示均衡后的彩色图像,
分辨率归一是将图像通过ceil向下取整函数进行缩小处理,定义输入图像水平长度hsize,垂直宽度vsize,分辨率为r米,则缩小图像水平长度为垂直宽度为
优选地,所述步骤S4中云厚度根据公式(4)确定:
其中,ln为自然对数函数,Cb为该区域综合亮度,Ac为该区域绝对对比度(Ac≠0)。
优选地,所述步骤S4中云破碎度根据公式(5)确定:
CF=PD/SV (5)
其中,PD为云区域密度,指单位面积内云斑块连通域数量;SV为云区域面积方差。
优选地,所述步骤S4中云覆盖率根据公式(6)确定:
其中,Sc为云覆盖区域面积,Sz为图像总面积。
优选地,所述遥感图像可用度评估模型是以可用度级别为标准,利用自适应模糊神经网络系统建立的。
优选地,所述遥感图像可用度评估模型的建模具体包括如下步骤:
Step1:确定114个人工标注的训练样本,每个训练样本中均有一个输出,三个输入,所述三个输入分别为CA、CF、CT,由CA、CF、CT组成了一个模糊集,模糊集通过高斯函数建模转化为隶属度函数,每个输入对应3个隶属度函数,每个输入有3个模糊区间;
Step2:根据训练样本的输入确定隶属度函数的个数为9,每个隶属度函数的有2个非线性参数;
Step3:根据模糊区间的个数确定模糊规则的个数为27;
Step4:根据模糊规则的个数确定激励强度线性参数W的个数27;
Step5:根据隶属度函数的个数、模糊规则的个数以及激励强度线性参数的个数确定网络结构;
Step6:利用MATLAB模糊工具箱中的Anfis函数对步骤step5中确定的网络结构进行训练,得到隶属度函数的18个非线性参数和27个激励强度线性参数;
Step7:将step6中得到隶属度函数的18个非线性参数和27个激励强度线性参数代入步骤step5中确定的网络结构得到遥感图像可用度评估模型。
优选地,还包括步骤S8,步骤S8为后续处理,包括对步骤S7中输出的错分的遥感图像,加入图像学习库,以人工判读的方式确定遥感图像的最终可用度级别;
并将人工判读后的遥感图像反馈回遥感图像可用度评估模型,重新对网络结构进行训练,修正遥感图像可用度评估模型中的非线性参数和线性参数。
与现有技术相对比,本发明产生的有益效果是:
(1)本发明提供的一种用于卫星遥感图像可用度的智能评估方法,不仅结合了云厚度、云破碎度、云覆盖率等客观因素,同时考虑了地物类型的影响因素,通过合理的步骤设计,用来实现遥感图像可用度级别评估;
(2)本发明提供的一种用于卫星遥感图像可用度的智能评估方法,还包括步骤S8后续处理,包括对输出的错分的遥感图像,加入图像学习库,以人工判读的方式确定遥感图像的最终可用度级别,将人工判读后的遥感图像以特征参数形式反馈回遥感图像可用度评估模型,重新对网络结构进行训练,不断修正遥感图像可用度评估模型中的非线性参数和线性参数,以期在长期的网络使用和更新过程中,完善它的功能,自动判读的准确率不断增高,最终真正代替人工判读;
(3)本发明提供了一种利用自适应性模糊神经网络的遥感图像可用度客观评估模型,利用云盖率、云厚度和云破碎度三种可用度客观影响因子,建立了遥感图像可用度客观评估模型;
(4)遥感图像可用度评估模型是以可用度级别为标准,利用自适应模糊神经网络系统建立的,并要求计算机评估结果与人工结果一致。首先对训练样本进行学习,得到确定模型的一系列参数,然后根据模型设计分类器对图像的可用度进行测试评估,并且对比人工结果,给出二者之间的接近程度。相似率越高,说明分类错误率越低,该模糊神经网络越有效。
附图说明
图1为可用度分类定级程序流程图;
图2为图像输入程序流程图;
图3为五种典型地物样本图;
图4为网络结构图;
图5为图像色差校正结果图;
图6为图像分辨率归一化结果图;
图7为输出灰度图;
图8为具有两条规则的两输入一输出一阶Sugeno模糊模型图;
图9为等效的自适应模糊神经网络结构图。
具体实施方式
下面结合附图,对本发明的具体实施方式作详细的说明。
如图1所示,图1为可用度分类定级程序流程图;
一种用于卫星遥感图像可用度的智能评估方法,其特征在于,包括如下步骤:
S1:图像输入;
S2:根据用户需求输入地物类型并计算该地物类型的地物影响参数β;
所述步骤S2中地物影响参数根据公式(2)确定:
β=1+flag×ρ-flag (2)
其中,若用户需要输入地物类型,则flag=1,若用户不需要输入地物类型,flag=0;
当flag=1时,检测用户输入的地物类型,统计地物类型的总面积S地,统计遥感图像的所有地物类型的总面积S总,则地物影响系数为若用户指定不需要某些地物类型时,
S3:根据步骤S1输入的图像进行云检测;
S4:根据云检测结果计算云厚度、云破碎度、云覆盖率;
S5:将步骤S4中计算的云厚度、云破碎度、云覆盖率输入遥感图像可用度评估模型计算对应遥感图像的客观可用度output(cloud);
所述步骤S5中客观可用度output(cloud)根据公式(3)确定:
其中,outputmf(如图4所示)为每条模糊规则输出的可用度等级,Wi为激励强度线性参数,i=1,2,3.....27;
S6:根据步骤S5中计算的客观可用度和步骤S2中计算的地物影响参数计算遥感图像的最终可用度级别;
其中,遥感图像的最终可用度级别根据公式(1)确定:
FA=output(cloud)×β (1)
其中,output(cloud)为遥感图像的客观可用度,β为地物影响参数。
则最终可用度级别(FinalAvailability,FA)由遥感图像的客观可用度和用户根据实际需求输入的地物类型共同决定。
S7:根据步骤S6中计算的遥感图像的最终可用度级别输出对应的遥感图像。
本发明还包括步骤S8,步骤S8为后续处理,包括对步骤S7中输出的错分的遥感图像,加入图像学习库,以人工判读的方式确定遥感图像的最终可用度级别;
并将人工判读后的遥感图像反馈回遥感图像可用度评估模型,重新对网络结构进行训练,修正遥感图像可用度评估模型中的非线性参数和线性参数。
如图2所示,图2为图像输入程序流程图;
1)读入图像;
2)将读入的图像进行色差校正;
3)将读入的图像进行分辨率归一;
4)保留色差校正后的HSI分量值,并且通过RGB模型计算其灰度分量gray,gray=0.299×R+0.587×G+0.114×B,将HSI三分量和灰度分量gray作为云检测的数据输入保存;其中,R、G、B分别为像素的红、绿、蓝分量;
通常,中巴卫星图像经过精确几何校正与配准等一系列预处理后,提供给用户的是由CCD相机五个波段的2、3、4三个波段影像合成的伪彩色图像,图像存储格式主要包括有BMP、JPEG、TIF。根据输入图像的可能格式,分别编写对应图像读取程序,并显示原图像。
CCD成像时,由于受光线影响,图像会出现一定的色差,呈现出彩色不规则问题而影响后续的处理,需要对色差进行校正。根据本文中多次处理数据要用到HSI模型,首先将RGB模型转换成HSI,保留H色调分量,对S(饱和度)和I(强度)分量运用直方图均衡算法,然后将新的HSI分量保存,并显示均衡后的彩色图像。校正结果如图5所示,
另外,随着遥感技术的发展,图像的分辨率可能从目前的20m提高到10m、5m甚至1m,图像数据量过大会影响处理速度,所以对图像进行缩小处理,设输入图像水平长度hsize,垂直宽度vsize,分辨率为r米,则缩小图像水平长度为垂直宽度为ceil为向下取整函数。经过分辨率归一化处理图像如图6所示。
经过上述处理的图像,保留其HSI分量值,并且通过RGB模型计算其灰度分量gray=0.299×R+0.587×G+0.114×B,将HSI三分量和灰度分量gray作为云检测的数据输入保存。灰度图输出如图7所示。
所述步骤S4中云厚度根据公式(4)确定:
其中,ln为自然对数函数,Cb为该区域综合亮度,Ac为该区域绝对对比度(Ac≠0);
Cb是利用HSV模型计算的云像素综合亮度:
Cb(i)=V(i)-S(i) (4.1)
其中,
V为该区域的明亮度(Value),S为I区域的饱和度(Saturation)。
Ac表示了卫星图像对比度是表征卫星影像的灰度等级差异程度,具体计算方法如式(3.8),
其中pi为灰度直方图中峰值对应的灰度级,si是图像所覆盖的灰度级。
所述步骤S4中云破碎度根据公式(5)确定:
CF=PD/SV (5)
其中,PD为云区域密度,指单位面积内云斑块连通域数量;SV为云区域面积方差。
PD和SV的计算方法如下:
其中,RN为云斑数量块,Si为第i个云区域面积,n为云区域数量,Sc为云覆盖区域面积,S总为图像总面积。
所述步骤S4中云覆盖率根据公式(6)确定:
其中,Sc为云覆盖区域面积,Sz为图像总面积。
遥感图像可用度评估模型是以可用度级别为标准,利用自适应模糊神经网络系统建立的;并要求计算机评估结果与人工结果一致。首先对训练样本进行学习,得到确定模型的一系列参数,然后根据模型设计分类器对图像的可用度进行测试评估,并且对比人工结果,给出二者之间的接近程度。相似率越高,说明分类错误率越低,该模糊神经网络越有效。
将图像的可用度分为0,1,2,3,4,5共六个级别;根据国家资源卫星应用中心工作人员的经验分类方法,针对遥感图像产品化过程中用户要求,长期观察图像,对图像的可用度做出主观评定,在对统一用户,且不需不针对图像包含地物类型情况下,对评分进行统计平均,得出评价结果。
自适应模糊神经网络(Adaptive Neuro-Fuzzy Inference System,ANFIS)是90年代初Jang[88]提出的结构,它是用自适应网络实现的一个模糊系统。该系统基于数据建模方法,模糊隶属度函数及模糊规则是通过已知数据的学习得到的,而不是基于经验或者直觉给定。针对特性复杂而不被人们完全了解的系统非常适用。
ANFIS是基于T-S(Takagi-Sugeno)推理的模糊神经网络,T-S推理的形式可以表示为:If x1isA and x2isB then y=f(x1,x2)。为简单起见,假设所考虑的模糊推理系统有两个输入x1和x2,单输出y。对于一阶Sugeno模糊模型,具有两条模糊“if-then”规则的普通规则集如下:
规则1:如果x1是A1and x2是B1,那么f1=p1x1+q1x2+r1,
规则2:如果x1是A2and x2是B2,那么f2=p2x1+q2x2+r2。
如图8解释了这种Sugeno模型的推理机制;图8为具有两条规则的两输入一输出一阶Sugeno模糊模型图;
如图9所示,图9为等效的自适应模糊神经网络结构图,其中第一层:各个节点函数的输出是输入对模糊集(A1,A2,B1,B2)的隶属度:
该隶属度可以由任意的参数化隶属度函数给出,如钟型函数、Sigmoid函数、高斯函数等。
第二层:这一层的每个节点都是一个标以Π的固定节点,它的输出是所有输入信号的积:
每个节点的输出表示一条规则的激励强度。一般来说,本层的结点函数可以用任意其它执行模糊“与”的T范式算子。
第三层:各个节点计算的是对应规则的激励强度Wi(第i条规则的激励强度)与全部规则W(所有规则的激励强度)值之和的比值:
O3,i=Wi/W (3.14)
为方便起见,本层的输出称为归一化激励强度。
第四层:该层的每个节点是一个有参数化节点函数的自适应节点
O4,i=O3,ifi=O3,i(pix1+qix2+ri) i=1,2 (3.15)
式中O3,i是从层3传来的归一化激励强度,{pi,qi,ri}是该结点的参数集。本层的参数称为结论参数。
第五层是一个固定节点,它计算所有传来信号之和作为总输出f(x1,x2)。
可以看出,自适应模糊神经网络是一个功能上与Sugeno模糊模型等价的五层前向网络。网络的各层节点属于不同功能的模糊神经元。
遥感图像可用度评估模型的建模具体包括如下步骤:
Step1:确定114个人工标注的训练样本,每个训练样本中均有一个输出,三个输入,所述三个输入分别为CA、CF、CT,由CA、CF、CT组成了一个模糊集,模糊集通过高斯函数转化为隶属度函数,每个输入对应3个隶属度函数,每个输入有3个模糊区间;
Step2:根据训练样本的输入确定隶属度函数的个数为9,每个隶属度函数的有2个非线性参数;
Step3:根据模糊区间的个数确定模糊规则的个数为27;
Step4:根据模糊规则的个数确定激励强度线性参数W的个数27;
Step5:根据隶属度函数的个数、模糊规则的个数以及激励强度线性参数的个数确定网络结构;
Step6:利用MATLAB模糊工具箱中的Anfis函数对步骤step5中确定的网络结构进行训练,得到隶属度函数的18个非线性参数和27个激励强度线性参数;
Step7:将step6中得到隶属度函数的18个非线性参数和27个激励强度线性参数代入步骤step5中确定的网络结构得到遥感图像可用度评估模型。
其中,Step3中模糊区间的个数的选择是根据设计者的经验和多次试验确定,具体为:根据网络结构,选择模糊区间个数,它的多少对网络性能的影响较大,区间分得太细会导致网络学习时间过长,甚至不能收敛;而区间分得太粗糙会使网络的容错能力差。
模糊区间数目选择是一个十分复杂的问题,往往需要根据设计者的经验和多次试验来确定,目前尚无一个理想的计算此数码的解析式。但可参考下面的公式(7):
其中L为模糊区间个数,m为输入节点数,n为输出节点数,c为介于1~10的常数。
根据公式,L可选3~12之间的值,经过反复尝试,发现当L=3时,网络性能可达最优,当L继续增加时,网络性能并没有明显提高,却反而有减少的趋势,这说明并非模糊区间的数目越多越好,因此最终确定的三个输入特征的模糊区间个数为[333],
一种用于卫星遥感图像可用度的智能评估方法,还包括步骤S7,步骤S7为后续处理,包括对输出的错分的遥感图像,加入图像学习库,以人工判读的方式确定遥感图像的最终可用度级别;
并将人工判读后的遥感图像以特征参数形式反馈回遥感图像可用度评估模型,重新对网络结构进行训练,修正遥感图像可用度评估模型中的非线性参数和线性参数。
上文所述的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并不是用以限制本发明的保护范围,在所属技术领域普通技术人员所具备的知识范围内,在不脱离本发明宗旨的前提下作出的各种变化均属于本发明的保护范围。
Claims (10)
1.一种用于卫星遥感图像可用度的智能评估方法,其特征在于,包括如下步骤:
S1:图像输入;
S2:根据用户需求输入地物类型并计算该地物类型的地物影响参数β;
S3:对步骤S1中输入的图像进行云检测;
S4:根据云检测结果计算云厚度、云破碎度、云覆盖率;
S5:将步骤S4中计算的云厚度、云破碎度、云覆盖率输入遥感图像可用度评估模型计算对应遥感图像的客观可用度output(cloud);
S6:根据步骤S5中计算的客观可用度和步骤S2中计算的地物影响参数计算遥感图像的最终可用度级别;
其中,遥感图像的最终可用度级别根据公式(1)确定:
FA=output(cloud)×β (1)
其中,output(cloud)为遥感图像的客观可用度,β为地物影响参数;
S7:根据步骤S6中计算的遥感图像的最终可用度级别输出对应的遥感图像。
2.如权利要求1所述的智能评估方法,其特征在于,所述步骤S2中地物影响参数根据公式(2)确定:
β=1+flag×ρ-flag (2)
其中,若用户需要输入地物类型,则flag=1,若用户不需要输入地物类型,flag=0;
当flag=1时,检测用户输入的地物类型,统计地物类型的总面积S地,统计遥感图像的所有地物类型的总面积S总,则地物影响系数为若用户指定不需要某些地物类型时,
3.如权利要求1所述的智能评估方法,其特征在于,所述步骤S5中客观可用度output(cloud)根据公式(3)确定:
其中,outputmf为每条模糊规则输出的可用度等级,Wi为激励强度线性参数,i=1,2,3.....27。
4.如权利要求1所述的智能评估方法,其特征在于,所述步骤S1中图像输入包括以下步骤:
1)读入图像;
2)将读入的图像进行色差校正;
3)将读入的图像进行分辨率归一;
4)保留色差校正后的HSI分量值,并且通过RGB模型计算其灰度分量gray,gray=0.299×R+0.587×G+0.114×B,将HSI三分量和灰度分量gray作为云检测的数据输入保存;
其中,R、G、B分别为像素的红、绿、蓝分量;
色差校正是将RGB模型转换成HSI,保留H色调分量,对S(饱和度)和I(强度)分量运用直方图均衡算法,然后将新的HSI分量保存,并显示均衡后的彩色图像;
分辨率归一是将图像通过ceil向下取整函数进行缩小处理,定义输入图像水平长度hsize,垂直宽度vsize,分辨率为r米,则缩小图像水平长度为垂直宽度为
5.如权利要求1所述的智能评估方法,其特征在于,所述步骤S4中云厚度根据公式(4)确定:
其中,ln为自然对数函数,Cb为该区域综合亮度,Ac为该区域绝对对比度(Ac≠0)。
6.如权利要求1所述的智能评估方法,其特征在于,所述步骤S4中云破碎度根据公式(5)确定:
CF=PD/SV (5)
其中,PD为云区域密度,指单位面积内云斑块连通域数量;SV为云区域面积方差。
7.如权利要求1所述的智能评估方法,其特征在于,所述步骤S4中云覆盖率根据公式(6)确定:
其中,Sc为云覆盖区域面积,Sz为图像总面积。
8.如权利要求1所述的智能评估方法,其特征在于,所述遥感图像可用度评估模型是以可用度级别为标准,利用自适应模糊神经网络系统建立的。
9.如权利要求8所述的智能评估方法,其特征在于,所述遥感图像可用度评估模型的建模具体包括如下步骤:
Step1:确定114个人工标注的训练样本,每个训练样本中均有一个输出,三个输入,所述三个输入分别为CA、CF、CT,由CA、CF、CT组成了一个模糊集,模糊集通过高斯函数转化为隶属度函数,每个输入对应3个隶属度函数,每个输入有3个模糊区间;
Step2:根据训练样本的输入确定隶属度函数的个数为9,每个隶属度函数的有2个非线性参数;
Step3:根据模糊区间的个数确定模糊规则的个数为27;
Step4:根据模糊规则的个数确定激励强度线性参数W的个数27;
Step5:根据隶属度函数的个数、模糊规则的个数以及激励强度线性参数的个数确定网络结构;
Step6:利用MATLAB模糊工具箱中的Anfis函数对步骤step5中确定的网络结构进行训练,得到隶属度函数的18个非线性参数和27个激励强度线性参数;
Step7:将step6中得到隶属度函数的18个非线性参数和27个激励强度线性参数代入步骤step5中确定的网络结构得到遥感图像可用度评估模型。
10.如权利要求1所述的智能评估方法,其特征在于,还包括步骤S8,步骤S8为后续处理,包括对步骤S7中输出的错分的遥感图像,加入图像学习库,以人工判读的方式确定遥感图像的最终可用度级别;
并将人工判读后的遥感图像反馈回遥感图像可用度评估模型,重新对网络结构进行训练,修正遥感图像可用度评估模型中的非线性参数和线性参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810755911.3A CN109035223A (zh) | 2018-07-11 | 2018-07-11 | 一种用于卫星遥感图像可用度的智能评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810755911.3A CN109035223A (zh) | 2018-07-11 | 2018-07-11 | 一种用于卫星遥感图像可用度的智能评估方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109035223A true CN109035223A (zh) | 2018-12-18 |
Family
ID=64640958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810755911.3A Pending CN109035223A (zh) | 2018-07-11 | 2018-07-11 | 一种用于卫星遥感图像可用度的智能评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109035223A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826526A (zh) * | 2019-11-19 | 2020-02-21 | 上海无线电设备研究所 | 一种测云雷达识别云类的方法 |
CN110889840A (zh) * | 2019-11-28 | 2020-03-17 | 航天恒星科技有限公司 | 面向地物目标的高分6号遥感卫星数据的有效性检测方法 |
CN115082452A (zh) * | 2022-07-26 | 2022-09-20 | 北京数慧时空信息技术有限公司 | 基于云及阴影的遥感影像质量定量评价方法 |
CN116612048A (zh) * | 2023-07-17 | 2023-08-18 | 山东产研卫星信息技术产业研究院有限公司 | 一种光学卫星遥感影像去模糊处理方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103604421A (zh) * | 2013-11-25 | 2014-02-26 | 上海航天测控通信研究所 | 一种基于光谱反射率特性的星载高光谱图像云检测方法 |
CN105260729A (zh) * | 2015-11-20 | 2016-01-20 | 武汉大学 | 一种基于随机森林的卫星遥感影像云量计算方法 |
-
2018
- 2018-07-11 CN CN201810755911.3A patent/CN109035223A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103604421A (zh) * | 2013-11-25 | 2014-02-26 | 上海航天测控通信研究所 | 一种基于光谱反射率特性的星载高光谱图像云检测方法 |
CN105260729A (zh) * | 2015-11-20 | 2016-01-20 | 武汉大学 | 一种基于随机森林的卫星遥感影像云量计算方法 |
Non-Patent Citations (3)
Title |
---|
吴兴华等: "基于密度自适应粒子群优化的图像可用度分类", 《计算机仿真》 * |
文档收集: "《卫星遥感图像可用度智能评估方法研究》", 《道客巴巴 网址:HTTPS://WWW.DOC88.COM/P-9146604262080.HTML》 * |
郑红等: "基于云特征的遥感图像可用度影响因素分析", 《北京航天航空大学学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826526A (zh) * | 2019-11-19 | 2020-02-21 | 上海无线电设备研究所 | 一种测云雷达识别云类的方法 |
CN110889840A (zh) * | 2019-11-28 | 2020-03-17 | 航天恒星科技有限公司 | 面向地物目标的高分6号遥感卫星数据的有效性检测方法 |
CN115082452A (zh) * | 2022-07-26 | 2022-09-20 | 北京数慧时空信息技术有限公司 | 基于云及阴影的遥感影像质量定量评价方法 |
CN115082452B (zh) * | 2022-07-26 | 2022-11-04 | 北京数慧时空信息技术有限公司 | 基于云及阴影的遥感影像质量定量评价方法 |
CN116612048A (zh) * | 2023-07-17 | 2023-08-18 | 山东产研卫星信息技术产业研究院有限公司 | 一种光学卫星遥感影像去模糊处理方法及系统 |
CN116612048B (zh) * | 2023-07-17 | 2023-09-26 | 山东产研卫星信息技术产业研究院有限公司 | 一种光学卫星遥感影像去模糊处理方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11521380B2 (en) | Shadow and cloud masking for remote sensing images in agriculture applications using a multilayer perceptron | |
CN104598908B (zh) | 一种农作物叶部病害识别方法 | |
CN109934154B (zh) | 一种遥感影像变化检测方法及检测装置 | |
CN108615071B (zh) | 模型测试的方法及装置 | |
CN110458077B (zh) | 一种车辆颜色识别方法及系统 | |
CN109147254A (zh) | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 | |
CN111553240B (zh) | 一种玉米病害病情分级方法、系统和计算机设备 | |
CN109544497A (zh) | 用于输电线路检测的图像融合方法及电子设备 | |
CN113344475B (zh) | 基于序列模态分解的变压器套管缺陷识别方法及系统 | |
CN109035223A (zh) | 一种用于卫星遥感图像可用度的智能评估方法 | |
US20200250427A1 (en) | Shadow and cloud masking for agriculture applications using convolutional neural networks | |
CN109063754A (zh) | 一种基于OpenStreetMap的遥感影像多特征联合分类方法 | |
CN111507426A (zh) | 基于视觉融合特征的无参考图像质量分级评价方法及装置 | |
CN111753805A (zh) | 安全帽佩戴检测方法和装置 | |
CN110084284A (zh) | 基于区域卷积神经网络的目标检测与二级分类算法及装置 | |
CN112417981B (zh) | 基于改进FasterR-CNN的复杂战场环境目标高效识别方法 | |
Pan et al. | Mapping cropland distributions using a hard and soft classification model | |
CN109886146B (zh) | 基于机器视觉检测的洪灾信息遥感智能采集方法及设备 | |
Sowmya et al. | Land cover classification using reformed fuzzy C-means | |
CN111079807A (zh) | 一种地物分类方法及装置 | |
CN116343048A (zh) | 针对平原作物类型复杂区地块边界精准提取方法及系统 | |
Su | [Retracted] Data Research on Tobacco Leaf Image Collection Based on Computer Vision Sensor | |
Cui | Research on garden landscape reconstruction based on geographic information system under the background of deep learning | |
CN117437615A (zh) | 雾天交通标志检测方法、装置、存储介质和电子设备 | |
Granados-López et al. | Pixel‐Based Image Processing for CIE Standard Sky Classification through ANN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20181218 |