CN117456356A - 一种基于深度学习的城市内涝视频识别预警方法 - Google Patents
一种基于深度学习的城市内涝视频识别预警方法 Download PDFInfo
- Publication number
- CN117456356A CN117456356A CN202311356080.XA CN202311356080A CN117456356A CN 117456356 A CN117456356 A CN 117456356A CN 202311356080 A CN202311356080 A CN 202311356080A CN 117456356 A CN117456356 A CN 117456356A
- Authority
- CN
- China
- Prior art keywords
- image
- ponding
- convolution
- original
- urban waterlogging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 18
- 230000008859 change Effects 0.000 claims abstract description 15
- 238000006243 chemical reaction Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 21
- 238000003709 image segmentation Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 17
- 238000005070 sampling Methods 0.000 claims description 12
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 11
- 238000009825 accumulation Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 3
- 230000001788 irregular Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 18
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 abstract description 2
- 238000013136 deep learning model Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的城市内涝视频识别预警方法,包括:收集城市内涝图片数据,生成json格式的标签数据;将json格式数据处理成二值化图像格式;对积水图像数据进行包括旋转、缩放、色域变换、高斯模糊等预处理工作;将预处理后的图像数据与对应的标签数据输入DeepLabV3+深度学习模型中进行训练,获得最佳模型训练权重文件;输入城市内涝视频数据利用模型逐帧进行识别,将模型识别后的视频数据逐帧计算积水像素占整幅图像像素的比例,用来表征长时间序列城市内涝的动态范围变化过程。本发明能够将城市内广泛分布的监控设施作为城市内涝的监测媒介对积水状况进行实时地识别,并能反应城市内涝的动态变化。
Description
技术领域
本发明涉及一种基于深度学习的城市内涝视频识别预警方法,属于城市内涝监测预警技术领域。
背景技术
目前,传统人工监测方法效率低、危险性高;自动站监测方法成本高、维修困难、且自动站分布少难以兼顾全局;遥感监测法受卫星重返周期的影响难以对内涝进行实时监测,并且光学卫星难以穿透云层,SAR卫星受到城市复杂环境的影响不能有效地提取内涝区域。因此,高效、安全地对城市内涝进行监测对降低内涝造成的风险、减少内涝引起的生命财产损失和经济损失等具有重要意义。
发明内容
本发明所要解决的技术问题是:提供一种基于深度学习的城市内涝视频识别预警方法,利用图像分割模型预测积水区域并根据积水区域的动态变化进行预警,解决了现有内涝监测成本高、监测站点少难以兼顾全局的问题。
本发明为解决上述技术问题采用以下技术方案:
一种基于深度学习的城市内涝视频识别预警方法,包括如下步骤:
步骤1,获取城市内涝积水图像数据集,对数据集中每个原始积水图像中的积水区域进行标注,将标注后的积水图像保存为json格式;
步骤2,对json格式的标注后的积水图像进行二值化,得到与原始积水图像一一对应的二值化图像;
步骤3,对步骤1获取的城市内涝积水图像数据集中的原始积水图像进行数据增强,得到增强后的数据集,将增强后的数据集及对应的二值化图像划分为训练集、验证集和测试集;
步骤4,构建DeepLabV3+图像分割模型,利用训练集和验证集对DeepLabV3+图像分割模型进行训练和验证,得到训练好的DeepLabV3+图像分割模型;
步骤5,利用训练好的DeepLabV3+图像分割模型对测试集中图像的积水区域进行识别,计算图像中积水区域的像素数量占整个图像像素数量的比例,即积水像素比,根据积水像素比表征积水区域的动态变化情况,并在积水像素比超出预设阈值时,进行预警。
作为本发明的一种优选方案,所述步骤1中,利用目视解译的方法对原始积水图像中的积水区域使用不规则多边形进行框选,得到标注后的积水图像。
作为本发明的一种优选方案,所述步骤2中,将标注后的积水图像中积水区域的像素值赋值1,其余部分的像素值赋值0,得到二值化图像。
作为本发明的一种优选方案,所述步骤3中,数据增强的具体操作如下:
1)在0到1内随机选取一个数a,若a在0到0.5之间,则进行数据增强操作,否则不进行数据增强操作;
2)在0到1内随机选取一个数b,若b在0到0.25之间,则对原始积水图像的长和宽进行随机缩放,缩放倍率在0.25到2之间随机选取,将原始积水图像对应的二值化图像进行相同倍率的缩放操作;
3)在0到1内随机选取一个数c,若c在0.25到0.5之间,则对原始积水图像进行随机翻转,翻转角度在0到360度间随机选取,将原始积水图像对应的二值化图像进行相同角度的翻转操作;
4)在0到1内随机选取一个数d,若d在0.5到0.75之间,则对原始积水图像进行高斯模糊,模糊核大小设为5×5;
5)在0到1内随机选取一个数e,若e在0.75到1之间,则对原始积水图像进行色域变换,将原始积水图像转换到HSV色彩空间,进行色相、饱和度、亮度的随机变换。
作为本发明的一种优选方案,所述步骤4中,DeepLabV3+图像分割模型包括编码和解码两部分;其中,编码部分包括四次下采样的主干特征提取网络以及由空洞空间卷积模块和一个1×1的卷积层构成的加强特征提取网络;主干特征提取网络包括依次连接的第一至第四下采样模块以及一个1×1的卷积层,第一下采样模块包括依次连接的一个3×3的卷积层和两个3×3的瓶颈结构,第二下采样模块包括依次连接的两个3×3的瓶颈结构,第三下采样模块包括依次连接的三个3×3的瓶颈结构,第四下采样模块包括依次连接的七个3×3的瓶颈结构;空洞空间卷积模块包括五个并行的层,分别为一个1×1的卷积层、三个3×3的膨胀率分别为6、12和18的并行空洞卷积层以及一个全池化层;解码部分包括一个1×1的卷积层、一个3×3的卷积层以及第一和第二四倍上采样模块;
将增强后的积水图像与对应的二值化图像作为DeepLabV3+图像分割模型的输入,经主干特征提取网络生成大小为原图像1/16的特征张量和大小为原图像1/4的卷积特征图层;特征张量传入空洞空间卷积模块中,由五个并行的层对特征张量进行并行处理后拼接,对拼接得到的图层进行1×1的卷积处理,得到加强特征提取网络的输出,由解码部分的第一四倍上采样模块对加强特征提取网络的输出进行四倍上采样;主干特征提取网络生成的卷积特征图层经1×1的卷积处理后与第一四倍上采样模块输出的图层进行通道拼接,拼接结果依次经3×3的卷积处理和第二四倍上采样模块后得到DeepLabV3+图像分割模型的输出。
一种计算机设备,包括存储器、处理器,以及存储在所述存储器中并能够在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的基于深度学习的城市内涝视频识别预警方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的基于深度学习的城市内涝视频识别预警方法的步骤。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1、本发明提出的方法能够脱离传统的监测站点,对内涝进行监测,城市中广泛分布的监控设施都可以作为城市内涝监测的媒介,并且能够为模型提供海量训练数据;可以对模型不断更新优化,以提升对内涝的识别精度;能够通过计算积水像素比的方式对长时间序列视频中的内涝动态范围变化进行表征计算,并以此作为参照发布城市内涝预警信息。
2、本发明突破了传统积水监测站点分布少、成本高的局限性,能够将城市内广泛分布的监控设施作为城市内涝的监测媒介对积水状况进行实时地识别,并能反应城市内涝的动态变化,为能更加高效、安全、及时地对内涝进行监测和预警提供了技术支持。
附图说明
图1是本发明一种基于深度学习的城市内涝视频识别预警方法的流程图;
图2是积水预期二值化示意图,其中,(a)是原始图像,(b)是二值化图像;
图3是图像分割模型中主干特征提取网络的结构图;
图4是图像分割模型的结构图;
图5是利用图像分割模型识别出的不同阶段视频内涝的效果图;
图6是内涝视频中积水像素比变化曲线图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1所示,为本发明提出的一种基于深度学习的城市内涝视频识别预警方法的流程图,包括如下步骤:
步骤1:制作城市内涝积水图像数据集,生成json格式文件。
收集能够反应复杂场景下城市内涝状况的图片数据,利用图像标注工具绘制多边形。图像左下角顶点坐标为(0,0),绘制的多边形各个顶点坐标为{(x1,y1),(x2,y2)……(xk,yk)},k表示某个多边形共有k个顶点,由这k个顶点连线包围的区域为积水区域,利用json文件保存每个多边形的顶点坐标信息。
步骤2:将json文件转换为二值化图像;json文件中多边形包围部分的积水区域图像像素赋予值1,其余部分图像像素赋予值0,每张二值化图像对应一个原始图像。积水预期二值化示意图如图2的(a)和(b)所示。
步骤3:对原始的城市内涝图像数据进行预处理,并将数据拆分为训练集、验证集和测试集。
步骤3.1:对原始图像数据进行数据增强,包括随机缩放、随机翻转、高斯模糊、色域变换。随机缩放和随机翻转使图像上内涝的位置和范围发生变化,因此需要对缩放和翻转的原始图像对应的二值化图像进行相同的缩放和翻转操作。高斯模糊和色域变换并未改变原始图像中内涝的位置和范围信息,该部分原始图像对应的二值化图像不需要进行任何变换操作。增强后的图像与二值化图像一一对应。具体数据增强操作如下:
(1)在0到1内随机选取一个数,若其在0到0.5之间,则进行增强操作,否则不进行增强操作。
(2)在0到1内随机选取一个数,若其在0到0.25之间,则进行图像长和宽的缩放,缩放倍率在0.25到2之间随机选取,将其对应的二值化图像进行相同倍率的缩放操作。
(3)在0到1内随机选取一个数,若其在0.25到0.5之间,则进行图像旋转,旋转角度在0到360度间随机选取,将其对应的二值化图像进行相同角度的旋转操作。
(4)在0到1内随机选取一个数,若其在0.5到0.75之间,则进行图像高斯模糊,模糊核大小设为5×5,即将一个25个像素组成的正方形中心区域的像素值设置为周围24个像素值的平均值,其对应的二值化图像不进行操作。
(5)在0到1内随机选取一个数,若其在0.75到1之间,则进行图像色域变换,将图像转换到HSV色彩空间,进行色相、饱和度、亮度的随机变换,其对应的二值化图像不进行操作。
步骤3.2:将上述增强后的图像与其对应的二值化图像按照8.5:1:0.5的比例随机划分训练集、验证集和测试集。
步骤4:基于DeeplabV3+图像分割算法对训练集的图像数据进行训练,验证集的图像数据对模型参数进行调试。具体按以下步骤实施:
步骤4.1:搭建DeepLabV3+图像分割模型,整体模型由编码和解码两部分组成,其中编码部分由四次下采样的主干特征提取网络(DCNN)和由空洞空间卷积模块(ASPP)构成的加强特征提取网络构成;解码部分为主干特征提取网络提取的浅层特征和加强特征提取网络提取特征的拼接和上采样处理。主干特征提取网络的结构如图3所示。模型的结构如图4所示。
从GitHub网站上下载DeepLabV3+对于VOC数据集的权重文件作为训练积水图像的预训练权重。
步骤4.2:调模型训练时所需的下采样倍数、批量大小(batch_size)、迭代次数(epoch)等参数,进行模型的训练,训练的步骤具体为:
(1)将训练集的图像输入模型并进行编码处理,经过一系列的卷积运算,生成大小为原始图像1/16的特征张量。
(2)将这些特征张量传入ASPP结构中,该结构由一个1×1的卷积层、三个3×3的膨胀率分别为6、12和18的并行空洞卷积层以及一个全池化层对上述特征张量进行处理。将这些层进行通道拼接处理,之后将拼接处理后的图层进行1×1卷积处理。
(3)提取出主干网络生成的大小为原图像1/4的卷积特征图层,将ASPP结果图层经过四倍上采样,形成大小相同的图层进行通道拼接,再将拼接后的图层进行3×3卷积处理和四倍上采样处理,形成与原始图像大小相同的城市内涝预测效果图。
步骤5:将测试集输入到步骤4训练完成的模型中,使模型逐帧对图像中的积水区域进行识别。构建积水像素比参数,计算识别出的积水像素数量占整个图像像素数量的比例用来表征监控区域内积水范围的动态变化情况,若该比例大于一定阈值,则进行预警。具体按以下步骤实施:
步骤5.1:基于步骤4.2训练完成后生成的最佳模型权值文件对测试集进行测试,对识别后的积涝区域与原始图像进行叠加,并呈现。图5是不同阶段视频内涝的效果图。
步骤5.2:计算步骤5.1中识别出的图像中积水像素PixelsFlooded占总体图像像素PixelsTotal的比例,构建积水像素比参数(Water Pixel Ratio,WPR),其表达式为:
该参数可以理解为静止的监控设施拍摄到的可见区域中积水的范围,它的值在0%到100%之间变化。当积水区域的视野被物体或人遮挡的情况下,连续时刻记录的WPR的值会产生明显的波动,但是这种波动不会影响WPR的变化趋势,即当长时间序列连续对WPR进行计算时,可以表征城市内涝积水范围的变化趋势。当该参数大于一定阈值时,则说明内涝较为严重,应当进行预警。
本发明以一段积水视频为例,对视频中的积涝区域逐帧进行了识别,并且通过等时间间隔取帧法选取了视频263帧的图像,绘制出了真实积水像素比变化曲线与实际模型预测出的积水像素比变化曲线进行拟合,验证模型的可行性,如图6所示。
基于同一发明构思,本申请实施例提供一种计算机设备,包括存储器、处理器,以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现前述的基于深度学习的城市内涝视频识别预警方法的步骤。
基于同一发明构思,本申请实施例提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现前述的基于深度学习的城市内涝视频识别预警方法的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (7)
1.一种基于深度学习的城市内涝视频识别预警方法,其特征在于,包括如下步骤:
步骤1,获取城市内涝积水图像数据集,对数据集中每个原始积水图像中的积水区域进行标注,将标注后的积水图像保存为json格式;
步骤2,对json格式的标注后的积水图像进行二值化,得到与原始积水图像一一对应的二值化图像;
步骤3,对步骤1获取的城市内涝积水图像数据集中的原始积水图像进行数据增强,得到增强后的数据集,将增强后的数据集及对应的二值化图像划分为训练集、验证集和测试集;
步骤4,构建DeepLabV3+图像分割模型,利用训练集和验证集对DeepLabV3+图像分割模型进行训练和验证,得到训练好的DeepLabV3+图像分割模型;
步骤5,利用训练好的DeepLabV3+图像分割模型对测试集中图像的积水区域进行识别,计算图像中积水区域的像素数量占整个图像像素数量的比例,即积水像素比,根据积水像素比表征积水区域的动态变化情况,并在积水像素比超出预设阈值时,进行预警。
2.根据权利要求1所述的基于深度学习的城市内涝视频识别预警方法,其特征在于,所述步骤1中,利用目视解译的方法对原始积水图像中的积水区域使用不规则多边形进行框选,得到标注后的积水图像。
3.根据权利要求1所述的基于深度学习的城市内涝视频识别预警方法,其特征在于,所述步骤2中,将标注后的积水图像中积水区域的像素值赋值1,其余部分的像素值赋值0,得到二值化图像。
4.根据权利要求1所述的基于深度学习的城市内涝视频识别预警方法,其特征在于,所述步骤3中,数据增强的具体操作如下:
1)在0到1内随机选取一个数a,若a在0到0.5之间,则进行数据增强操作,否则不进行数据增强操作;
2)在0到1内随机选取一个数b,若b在0到0.25之间,则对原始积水图像的长和宽进行随机缩放,缩放倍率在0.25到2之间随机选取,将原始积水图像对应的二值化图像进行相同倍率的缩放操作;
3)在0到1内随机选取一个数c,若c在0.25到0.5之间,则对原始积水图像进行随机翻转,翻转角度在0到360度间随机选取,将原始积水图像对应的二值化图像进行相同角度的翻转操作;
4)在0到1内随机选取一个数d,若d在0.5到0.75之间,则对原始积水图像进行高斯模糊,模糊核大小设为5×5;
5)在0到1内随机选取一个数e,若e在0.75到1之间,则对原始积水图像进行色域变换,将原始积水图像转换到HSV色彩空间,进行色相、饱和度、亮度的随机变换。
5.根据权利要求1所述的基于深度学习的城市内涝视频识别预警方法,其特征在于,所述步骤4中,DeepLabV3+图像分割模型包括编码和解码两部分;其中,编码部分包括四次下采样的主干特征提取网络以及由空洞空间卷积模块和一个1×1的卷积层构成的加强特征提取网络;主干特征提取网络包括依次连接的第一至第四下采样模块以及一个1×1的卷积层,第一下采样模块包括依次连接的一个3×3的卷积层和两个3×3的瓶颈结构,第二下采样模块包括依次连接的两个3×3的瓶颈结构,第三下采样模块包括依次连接的三个3×3的瓶颈结构,第四下采样模块包括依次连接的七个3×3的瓶颈结构;空洞空间卷积模块包括五个并行的层,分别为一个1×1的卷积层、三个3×3的膨胀率分别为6、12和18的并行空洞卷积层以及一个全池化层;解码部分包括一个1×1的卷积层、一个3×3的卷积层以及第一和第二四倍上采样模块;
将增强后的积水图像与对应的二值化图像作为DeepLabV3+图像分割模型的输入,经主干特征提取网络生成大小为原图像1/16的特征张量和大小为原图像1/4的卷积特征图层;特征张量传入空洞空间卷积模块中,由五个并行的层对特征张量进行并行处理后拼接,对拼接得到的图层进行1×1的卷积处理,得到加强特征提取网络的输出,由解码部分的第一四倍上采样模块对加强特征提取网络的输出进行四倍上采样;主干特征提取网络生成的卷积特征图层经1×1的卷积处理后与第一四倍上采样模块输出的图层进行通道拼接,拼接结果依次经3×3的卷积处理和第二四倍上采样模块后得到DeepLabV3+图像分割模型的输出。
6.一种计算机设备,包括存储器、处理器,以及存储在所述存储器中并能够在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述的基于深度学习的城市内涝视频识别预警方法的步骤。
7.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的基于深度学习的城市内涝视频识别预警方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311356080.XA CN117456356A (zh) | 2023-10-19 | 2023-10-19 | 一种基于深度学习的城市内涝视频识别预警方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311356080.XA CN117456356A (zh) | 2023-10-19 | 2023-10-19 | 一种基于深度学习的城市内涝视频识别预警方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117456356A true CN117456356A (zh) | 2024-01-26 |
Family
ID=89593953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311356080.XA Pending CN117456356A (zh) | 2023-10-19 | 2023-10-19 | 一种基于深度学习的城市内涝视频识别预警方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117456356A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117746342A (zh) * | 2024-02-19 | 2024-03-22 | 广州市突发事件预警信息发布中心(广州市气象探测数据中心) | 利用公共视频进行道路积水识别方法 |
CN118470659A (zh) * | 2024-07-15 | 2024-08-09 | 南昌航空大学 | 城市监控视角下基于去噪扩散模型的内涝检测方法与装置 |
-
2023
- 2023-10-19 CN CN202311356080.XA patent/CN117456356A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117746342A (zh) * | 2024-02-19 | 2024-03-22 | 广州市突发事件预警信息发布中心(广州市气象探测数据中心) | 利用公共视频进行道路积水识别方法 |
CN117746342B (zh) * | 2024-02-19 | 2024-05-17 | 广州市突发事件预警信息发布中心(广州市气象探测数据中心) | 利用公共视频进行道路积水识别方法 |
CN118470659A (zh) * | 2024-07-15 | 2024-08-09 | 南昌航空大学 | 城市监控视角下基于去噪扩散模型的内涝检测方法与装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084817B (zh) | 基于深度学习的数字高程模型生产方法 | |
CN110059698B (zh) | 用于街景理解的基于边缘稠密重建的语义分割方法及系统 | |
CN117456356A (zh) | 一种基于深度学习的城市内涝视频识别预警方法 | |
CN113139543B (zh) | 目标对象检测模型的训练方法、目标对象检测方法和设备 | |
CN109840483B (zh) | 一种滑坡裂缝检测与识别的方法及装置 | |
CN113610822A (zh) | 一种基于多尺度信息融合的表面缺陷检测方法 | |
RU2008129793A (ru) | Способ улучшения последующей обработки изображений с использованием деформируемых сеток | |
CN117854072B (zh) | 一种工业视觉缺陷自动标注方法 | |
CN114742799B (zh) | 基于自监督异构网络的工业场景未知类型缺陷分割方法 | |
CN116777898B (zh) | 基于AFFormer实现3D打印挡墙施工过程裂缝测量的方法 | |
CN112906794A (zh) | 一种目标检测方法、装置、存储介质及终端 | |
CN110059769A (zh) | 用于街景理解的基于像素重排重建的语义分割方法及系统 | |
CN116110036B (zh) | 基于机器视觉的电力铭牌信息缺陷等级判断方法及装置 | |
CN117557775B (zh) | 基于红外和可见光融合的变电站电力设备检测方法及系统 | |
CN110555424A (zh) | 港口集装箱布局检测方法、装置、设备及可读存储介质 | |
CN112989995A (zh) | 文本检测方法、装置及电子设备 | |
CN115410081A (zh) | 一种多尺度聚合的云和云阴影辨识方法、系统、设备及存储介质 | |
CN116958827A (zh) | 一种基于深度学习的撂荒区域提取方法 | |
CN113762265A (zh) | 肺炎的分类分割方法及系统 | |
CN112614094B (zh) | 基于序列状态编码的绝缘子串异常定位识别方法 | |
CN116485802A (zh) | 一种绝缘子闪络缺陷检测方法、装置、设备及存储介质 | |
CN116109518A (zh) | 一种金属锈蚀图像的数据增强、分割方法及装置 | |
CN114494236A (zh) | 基于过完备卷积神经网络的织物缺陷检测方法及系统 | |
CN116563538B (zh) | 图像分割方法及系统 | |
CN117475262B (zh) | 图像生成方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |