CN113538702B - 一种海洋养殖区水下场景全景图生成方法 - Google Patents
一种海洋养殖区水下场景全景图生成方法 Download PDFInfo
- Publication number
- CN113538702B CN113538702B CN202110738641.7A CN202110738641A CN113538702B CN 113538702 B CN113538702 B CN 113538702B CN 202110738641 A CN202110738641 A CN 202110738641A CN 113538702 B CN113538702 B CN 113538702B
- Authority
- CN
- China
- Prior art keywords
- feature map
- feature
- underwater
- image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000001514 detection method Methods 0.000 claims abstract description 16
- 230000000873 masking effect Effects 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims abstract description 7
- 230000009471 action Effects 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000009313 farming Methods 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 230000001502 supplementing effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000251511 Holothuroidea Species 0.000 description 1
- 241000237503 Pectinidae Species 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 235000020637 scallop Nutrition 0.000 description 1
- 235000014102 seafood Nutrition 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种海洋养殖区水下场景全景图生成方法,包括规划水下机器人行走路径,利用水下机器人采集水下图像,对采集的多张所述图像进行海产品目标特征提取获取局部特征图和全局特征图;并通过目标检测算法模型对局部特征图进行目标特征提取,获得鲁棒性强的局部掩码特征图,对目标特征图进行掩码处理获得目标掩码特征图,将目标掩码特征图与全局特征图作矩阵掩码操作,获得图像中具有代表性的特征图以及对图片进行曝光和判断是否为同一图片等处理,进而利用拼接算法对检测到同一物体的图像进行图像拼接,可以获得水下拼接图像。该方法可以通过机器人在当前目标区域内完成水下图像拼接后,使得观测的效果更加清晰、准确和精准。
Description
技术领域
本发明涉及水下图像采集技术领域,具体涉及一种海洋养殖区水下场景全景图生成方法。
背景技术
目前,水下机器人进行近距离水下目标识别时,需要能够实时、清晰地观测目标的情况。由于水下目标分布动态变化、水下光线存在严重的衰减和散射效应,水下相机可视范围有限等问题,难以依靠在有限距离和视角条件下得到的单幅图像所获取和记录的信息实现对识别目标的完整观测,因此使得观测人员难以全面掌握海底环境的状况。
发明内容
本发明针对以上问题提出了海洋养殖区水下场景全景图生成方法。
本发明采用的技术手段如下:
一种海洋养殖区水下场景全景图生成方法,包括以下步骤:
步骤1、规划水下机器人的行走路线,根据所述行走路线控制所述水下机器人运动方向;
步骤2、通过设置在所述水下机器人上的多个高清相机采集所述水下机器人可视区域的多张图像;
步骤3、利用局部特征提取器和全局特征提取器对采集的多张所述图像进行海产品目标特征提取获取局部特征图和全局特征图;
步骤4、通过目标检测算法模型对所述局部特征图进行目标特征提取,获得鲁棒性强的局部掩码特征图,通过softmax函数对所述目标特征图进行掩码处理获得目标掩码特征图,将所述目标掩码特征图与所述全局特征图作矩阵掩码操作,获得图像中具有代表性的特征图;
步骤5、将所述具有代表性的特征图送入DCP网络中进行局部指导操作,增加特征图通道信息较多的特征的权重,减少信息较少的不重要特征的权重;
步骤6、将所述全局特征图与所述具有代表性的特征图相连,获得融合特征图;
步骤7、将所述可视区域的多张图像进行目标重识别检测,若两张及两张以上的图像中出现同一物体,对检测到同一物体的图像进行曝光处理获得曝光处理图像;
步骤8、判断所述曝光处理图像是否具有相同特征的物体,若否,返回步骤2,若是,执行步骤9;
步骤9、利用拼接算法对检测到同一物体的图像进行图像拼接;
步骤10、利用声学设备进行避障;
步骤11、是否遇到障碍物,若是,返回步骤1,若否,执行步骤12;
步骤12、保存拼接图像;
步骤13、判断是否结束,若否,返回步骤1。
进一步地,所述全局特征提取器的主干网络包括用于进行全局特征提取的两个标准的3×3卷积、用于防止训练网络过程中发生过拟合的ReLu函数和用于增加像素之间的相关性的非局部注意力机制网络;
所述局部特征提取器包括用于关注水下图像中具有明显目标的区域的yolov4单阶段检测器网络和用于检测得到的局部区域特征图的mask网络。
进一步地,所述步骤4包括以下步骤:
步骤40、设置检测精度高和置信度高的候选框,所述候选框中包括水下图像的相关属性;
步骤41、在选择多个top-D检测精度高的候选区域后,使用索引i∈{1,2,...,D}来指示每一个被选的代表性特征,每个代表性特征覆盖的空间区域表示为Ai,对于每一个候选区域Ai,通过将1分配给区域内的像素,0分配给其余的像素,得到一个二进制特征矩阵,公式如下:
其中,Mi∈{0,1}C×K,且所有Ai在C×K范围内,以确保所有部分掩码区域都位于图像区域内,然后将部分掩码映射到全局特征,在获得全局特征Fg和部分掩码{Mi}D i=1之后,将部分掩码映射到全局特征上,得到一组基于部分掩码的特征图集合{Fi}D i=1;
步骤42、利用mask网络只保留最具代表性的特征,得到掩码特征后,再结合全局特征Fg,对于每一个部分区域i,可以得到掩码特征图Fi,即:
其中,⊙表示在全局特征Fg的每一个通道上进行操作,Fi是第i部分的部分掩码特征的映射,在Fi中只有第i部分的部分掩码特征被激活,且有Fi∈RC×K×G,将全局特征Fg和每个掩码的特征图Fi在通道维度进行连接,补充水下目标经过卷积之后的丢失的信息,得到多个鲁棒性强的特征。
进一步地,所述步骤5包括以下步骤:
步骤50、对每个掩码特征图Fi上使用全局平均池化进行操作,获得每个掩码特征图Fi的channel像素最大值,每个channel对应图像的不同特征;
步骤51、对所述每个掩码特征图Fi的channel像素最大值进行Softmax操作,获得用来表示每个代表性特征的重要性的权重向量w,w用和为1进行归一化,使不同特征之间的相对重要性更加明显;
步骤52、添加全局特征Fg以增强代表性特征区域的重要性,从而得到最具代表性特征:
其中,μ(·)表示学习的函数,σμ是μ(·)的参数,mgap(·)表示全局平均池化。进一步地,所述规划水下机器人的行走路线采用避障算法或PID算法;
通过actor-critic算法,控制推进器的前进方向,规划机器人的运动轨迹,算法公式如下:
(1)critic被定义为状态动作函数Q
其中,Q是状态动作函数,π是奖罚策略,γ是衰减因子[0,1],ut是时间t采取的动作状态动作函数,可以使用状态xt到xt+1的概率被学习,状态xt包括水下机器人当前的运动方向和当前的位置;
(2)当目标策略被固定时,Q可以被离线学习,更新Q的公式如下:
更新Qw直到Qw≈Qπ,其中,Qw机器人运动的具体位置坐标点;
(3)actor被定义为状态价值函数:
τ(μθ)=∫ρμr(xt,μ)dx=Ε[r(xt,μθ(xt))]
在神经网络中,通过最小化损失函数来优化τ(uθ),则损失函数为:
其中L(w)是简单的均方误差函数,N代表采样的时间范围,yi是从目标深度神经网络Q获得的目标状态动作值,其中,
yi=r(xi,u'i)-γQ'w(xi,ui),u'i=μ(xi|θ')
对损失函数求梯度为:
如果actor被具有参数θ的神经网络来表示,则τ(μθ)=Qw(xi,μ(xi|θ)|w),对τ求梯度为:
与现有技术比较,本发明公开的海洋养殖区水下场景全景图生成方法能够提供清晰完整的水下目标全景图,使得水面上的遥控人员可以更好地观测水下目标的全面情况,对于水下机器人实现目标抓取,以及水下作业机器人的自动化和自主化作业具有非常重要的现实意义。
附图说明
图1为本发明公开的海洋养殖区水下场景全景图生成方法的流程图;
图2为水下机器人移动路径规划示意图;
图3为水下目标重识别算法示意图;
图4水下全景图像生成算法示意图。
具体实施方式
如图1至图4所示为本发明公开的海洋养殖区水下场景全景图生成方法,包括以下步骤:
一种海洋养殖区水下场景全景图生成方法,包括以下步骤:
步骤1、规划水下机器人的行走路线,根据所述行走路线控制所述水下机器人运动方向;
步骤2、通过设置在所述水下机器人上的多个高清相机采集所述水下机器人可视区域的多张图像;
步骤3、利用局部特征提取器和全局特征提取器对采集的多张所述图像进行海产品目标特征提取获取局部特征图和全局特征图;
步骤4、通过目标检测算法模型对所述局部特征图进行目标特征提取,获得鲁棒性强的局部掩码特征图,通过softmax函数对所述目标特征图进行掩码处理获得目标掩码特征图,将所述目标掩码特征图与所述全局特征图作矩阵掩码操作,获得图像中具有代表性的特征图;
步骤5、将所述具有代表性的特征图送入DCP网络中进行局部指导操作,增加特征图通道信息较多的特征的权重,减少信息较少的不重要特征的权重;
步骤6、将所述全局特征图与所述具有代表性的特征图相连,获得融合特征图;
步骤7、将所述可视区域的多张图像进行目标重识别检测,若两张及两张以上的图像中出现同一物体,对检测到同一物体的图像进行曝光处理获得曝光处理图像;
步骤8、判断所述曝光处理图像是否具有相同特征的物体,若否,返回步骤2,若是,执行步骤9;
步骤9、利用拼接算法对检测到同一物体的图像进行图像拼接;
步骤10、利用声学设备进行避障;
步骤11、是否遇到障碍物,若是,返回步骤1,若否,执行步骤12;
步骤12、保存拼接图像;
步骤13、判断是否结束,若否,返回步骤1。
具体地,规划机器人行驶路线,调整运动方向。本发明中使用避障算法或者使用PID算法对机器人进行控制,规划机器人的行驶路径。水下机器人有8个推进器,实现6自由度,供给机器人足够的动力。通过actor-critic算法,控制推进器的前进方向,规划机器人的运动轨迹。算法公式如下:
(1)critic被定义为状态动作函数Q
Q是状态动作函数,π是采取的策略,γ是衰减因子[0,1],ut是时间t采取的动作状态动作函数可以使用状态xt到xt+1的概率被学习。
(2)当目标策略被固定时,Q可以被离线学习,更新Q的公式如下:
更新Qw直到Qw≈Qπ。
(3)actor被定义为状态价值函数:
τ(μθ)=∫ρμr(xt,μ)dx=Ε[r(xt,μθ(xt))]
在神经网络中,通过最小化损失函数来优化τ(uθ),则损失函数为:
其中L(w)是简单的均方误差函数,N代表采样的时间范围,yi是从目标深度神经网络Q获得的目标状态动作值,其中,
yi=r(xi,u'i)-γQ'w(xi,ui),u'i=μ(xi|θ')
对损失函数求梯度为:
如果actor被具有参数θ的神经网络来表示,则τ(μθ)=Qw(xi,μ(xi|θ)|w),对τ求梯度为:
利用水下高清相机获取机器人可视区域图像,由于光在水下的衰减以及悬浮粒子的散射作用,导致相机只能捕获一部分从物体反射回来的光,因此水下图像存在模糊、偏色等可视化问题。普通水下相机获取到的水下图像分辨率不足,影响水下目标检测准确率。因此,利用水下高清相机获取机器人可视区域的高质量水下图像。同时在机器人上安装多个高清的摄像头,实现对水下环境多角度进行观测。
进一步地,所述全局特征提取器的主干网络包括用于进行全局特征提取的两个标准的3×3卷积、用于防止训练网络过程中发生过拟合的ReLu函数和用于增加像素之间的相关性的非局部注意力机制网络;
所述局部特征提取器包括用于关注水下图像中具有明显目标的区域的yolov4单阶段检测器网络和用于检测得到的局部区域特征图的mask网络,yolov4单阶段检测器网络只关注水下图像中具有明显目标的区域(目标可以是,鱼类、海洋的浮游生物,特征(尺寸大小、颜色、形状等)比较明显。
具体地,对水下机器人可视区域图像中的海产品目标提取特征块。
(1)首先主干网络(Global Feature Module)由两个标准的3×3卷积、ReLu函数和非局部注意力机制网络组成,网络结构图3如图所示。两个标准的卷积块目的是提取水下拍摄图像的全局特征,在提取全局特征后,我们使用注意力机制网络增加像素之间的相关性,提取鲁棒性强的全局特征Fg。然后将全局特征用来接下来局部特征网络的输入、训练以及最后的优化。
进一步地,所述步骤4包括以下步骤:
步骤40、设置检测精度高和置信度高的候选框,所述候选框中包括水下图像的相关属性,具体地,检测器会将检测到物体用一个检测框圈起来,检测精度高和置信度是相辅相成的,置信度指的是阈值,阈值设置的是否恰当会间接影响检测精度,同时,阈值是一个概率,阈值范围是大于等于0.5,小于等于1;
步骤41、在选择多个top-D检测精度高的候选区域后,使用索引i∈{1,2,...,D}来指示每一个被选的代表性特征,每个代表性特征覆盖的空间区域表示为Ai,对于每一个候选区域Ai,通过将1分配给区域内的像素,0分配给其余的像素,得到一个二进制特征矩阵,公式如下:
其中,Mi∈{0,1}C×K,且所有Ai在C×K范围内,以确保所有部分掩码区域都位于图像区域内,然后将部分掩码映射到全局特征,在获得全局特征Fg和部分掩码{Mi}D i=1之后,将部分掩码映射到全局特征上,得到一组基于部分掩码的特征图集合{Fi}D i=1;掩码区域指的是图像中具有明显目标的区域(目标可以鱼类、海洋浮游生物,一般指的是看得见摸得着,且特征比较明显),且是通过检测器检测得到的;
步骤42、利用mask网络只保留最具代表性的特征,得到掩码特征后,再结合全局特征Fg,对于每一个部分区域i,可以得到掩码特征图Fi,即:
其中,⊙表示在全局特征Fg的每一个通道上进行操作,Fi是第i部分的部分掩码特征的映射,在Fi中只有第i部分的部分掩码特征被激活,且有Fi∈RC×K×G,将全局特征Fg和每个掩码的特征图Fi在通道维度进行连接,补充水下目标经过卷积之后的丢失的信息,得到多个鲁棒性强的特征。
进一步地,所述步骤5包括以下步骤:
步骤50、对每个掩码特征图Fi上使用全局平均池化进行操作,获得每个掩码特征图Fi的channel像素最大值,对一张图像提取多个特征,每个channel对应图像的不同特征;
步骤51、对所述每个掩码特征图Fi的channel像素最大值进行进行Softmax操作,获得用来表示每个代表性特征的重要性的权重向量w,w用和为1进行归一化,使不同特征之间的相对重要性更加明显;
步骤52、添加全局特征Fg以增强代表性特征区域的重要性,从而得到最具代表性特征:
其中,μ(·)表示学习的函数,σμ是μ(·)的参数,mgap(·)表示全局平均池化。使用权重占比突显出每个特征的重要性,得出的结果加上全局特征图Fg,目的是进一步凸显水下目标最具代表性的特征。最后,因为全局特征和局部特征可以进行特征相互补偿,所以特征融合模块将全局特征Fg与最具代表性特征Fp在通道维度上相连,得到融合特征Ff。由于全局特征和基于代表性特征的部位特征提供互补信息,将全局特征和最具代表特征在通道维度进行concat连接,公式如下:
Ff=concat(Fg,Fp),Ff∈RH×W×2C。
步骤6中对检测同一物体的图像进行曝光处理具体过程如下:摄像头实时采集多张图像,送入到水下图像重识别网络中,在网络训练的过程中,网络使用局部模块和全局模块提取水下图像目标物的特征,例如海参、扇贝等,然后将局部特征和全局特征进行特征重组,得到鲁棒性的特征,之后将该特征放入到DCP网络中对特征进一步增强,最后将该网络的输出特征和全局特征在通道维度上进行连接,通过特征判断摄像头拍摄的图像中是否为同一物体,若是判断是同一物体,则进行下一步,否则循环执行步骤2。该步骤实现检测多张图片是否包含同一物体的功能,实现是否多张图片具有同一物体的标志是每张图片是否包含同一物体的特征,若重合度比较高(阈值大于等于0.5),则认为是多张图片包含同一目标,否则,相反。
步骤8采用采用Multi-Band算法进行图像拼接。
当融合宏观特征时,采用一个大的平滑渐变区,融合局部细节时,采用小的平滑渐变区,将图像分解为不同频带的分量加权和,图像的宏观特征在它的低频带,局部细节在它的高频带。图像按照频率高低展开形成一个金字塔,高低频分量各自按照不同方式平滑加权并叠加,把各频带分量重新加和,得到最终的融合效果。
图像预处理,机器人在当前目标区域内完成水下图像拼接后,使用超分辨率重构技术对全景图做清晰化处理,使得观测的效果更加清晰,得到的水下数据更加准确、精准。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (5)
1.一种海洋养殖区水下场景全景图生成方法,其特征在于:包括以下步骤:
步骤1、规划水下机器人的行走路线,根据所述行走路线控制所述水下机器人运动方向;
步骤2、通过设置在所述水下机器人上的多个高清相机采集所述水下机器人可视区域的多张图像;
步骤3、利用局部特征提取器和全局特征提取器对采集的多张所述图像进行海产品目标特征提取获取局部特征图和全局特征图;
步骤4、通过目标检测算法模型对所述局部特征图进行目标特征提取,获得鲁棒性强的局部掩码特征图,通过softmax函数对所述目标特征图进行掩码处理获得目标掩码特征图,将所述目标掩码特征图与所述全局特征图作矩阵掩码操作,获得图像中具有代表性的特征图;
步骤5、将所述具有代表性的特征图送入DCP网络中进行局部指导操作,增加特征图通道信息较多的特征的权重,减少信息较少的不重要特征的权重;
步骤6、将所述全局特征图与所述具有代表性的特征图相连,获得融合特征图;
步骤7、将所述可视区域的多张图像进行目标重识别检测,若两张及两张以上的图像中出现同一物体,对检测到同一物体的图像进行曝光处理获得曝光处理图像;
步骤8、判断所述曝光处理图像是否具有相同特征的物体,若否,返回步骤2,若是,执行步骤9;
步骤9、利用拼接算法对检测到同一物体的图像进行图像拼接;
步骤10、利用声学设备进行避障;
步骤11、是否遇到障碍物,若是,返回步骤1,若否,执行步骤12;
步骤12、保存拼接图像;
步骤13、判断是否结束,若否,返回步骤1。
2.根据权利要求1所述的海洋养殖区水下场景全景图生成方法,其特征在于:所述全局特征提取器的主干网络包括用于进行全局特征提取的两个标准的3×3卷积、用于防止训练网络过程中发生过拟合的ReLu函数和用于增加像素之间的相关性的非局部注意力机制网络;
所述局部特征提取器包括用于关注水下图像中具有明显目标的区域的yolov4单阶段检测器网络和用于检测得到的局部区域特征图的mask网络。
3.根据权利要求1所述的海洋养殖区水下场景全景图生成方法,其特征在于:所述步骤4包括以下步骤:
步骤40、设置检测精度高和置信度高的候选框,所述候选框中包括水下图像的相关属性;
步骤41、在选择多个top-D检测精度高的候选区域后,使用索引i∈{1,2,...,D}来指示每一个被选的代表性特征,每个代表性特征覆盖的空间区域表示为Ai,对于每一个候选区域Ai,通过将1分配给区域内的像素,0分配给其余的像素,得到一个二进制特征矩阵,公式如下:
其中,Mi∈{0,1}C×K,且所有Ai在C×K范围内,以确保所有部分掩码区域都位于图像区域内,然后将部分掩码映射到全局特征,在获得全局特征Fg和部分掩码{Mi}D i=1之后,将部分掩码映射到全局特征上,得到一组基于部分掩码的特征图集合{Fi}D i=1;
步骤42、利用mask网络只保留最具代表性的特征,得到掩码特征后,再结合全局特征Fg,对于每一个部分区域i,可以得到掩码特征图Fi,即:
其中,⊙表示在全局特征Fg的每一个通道上进行操作,Fi是第i部分的部分掩码特征的映射,在Fi中只有第i部分的部分掩码特征被激活,且有Fi∈RC×K×G,将全局特征Fg和每个掩码的特征图Fi在通道维度进行连接,补充水下目标经过卷积之后的丢失的信息,得到多个鲁棒性强的特征。
4.根据权利要求3所述的海洋养殖区水下场景全景图生成方法,其特征在于:所述步骤5包括以下步骤:
步骤50、对每个掩码特征图Fi上使用全局平均池化进行操作,获得每个掩码特征图Fi的channel像素最大值,每个channel对应图像的不同特征;
步骤51、对所述每个掩码特征图Fi的channel像素最大值进行Softmax操作,获得用来表示每个代表性特征的重要性的权重向量w,w用和为1进行归一化,使不同特征之间的相对重要性更加明显;
步骤52、添加全局特征Fg以增强代表性特征区域的重要性,从而得到最具代表性特征:
其中,μ(·)表示学习的函数,σμ是μ(·)的参数,mgap(·)表示全局平均池化。
5.根据权利要求4所述的海洋养殖区水下场景全景图生成方法,其特征在于:
所述规划水下机器人的行走路线采用避障算法或PID算法;
通过actor-critic算法,控制推进器的前进方向,规划机器人的运动轨迹,算法公式如下:
(1)critic被定义为状态动作函数Q
其中,Q是状态动作函数,π是奖罚策略,γ是衰减因子[0,1],ut是时间t采取的动作状态动作函数,可以使用状态xt到xt+1的概率被学习,状态xt包括水下机器人当前的运动方向和当前的位置;
(2)当目标策略被固定时,Q可以被离线学习,更新Q的公式如下:
更新Qw直到Qw≈Qπ,其中,Qw机器人运动的具体位置坐标点;
(3)actor被定义为状态价值函数:
τ(μθ)=∫ρμr(xt,μ)dx=Ε[r(xt,μθ(xt))]
在神经网络中,通过最小化损失函数来优化τ(uθ),则损失函数为:
其中,L(w)是简单的均方误差函数,N代表采样的时间范围,yi是从目标深度神经网络Q获得的目标状态动作值,其中,
yi=r(xi,u'i)-γQ'w(xi,ui),u'i=μ(xi|θ')
对损失函数求梯度为:
如果actor被具有参数θ的神经网络来表示,则τ(μθ)=Qw(xi,μ(xi|θ|)w),对τ求梯度为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110738641.7A CN113538702B (zh) | 2021-06-30 | 2021-06-30 | 一种海洋养殖区水下场景全景图生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110738641.7A CN113538702B (zh) | 2021-06-30 | 2021-06-30 | 一种海洋养殖区水下场景全景图生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113538702A CN113538702A (zh) | 2021-10-22 |
CN113538702B true CN113538702B (zh) | 2023-05-23 |
Family
ID=78097402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110738641.7A Active CN113538702B (zh) | 2021-06-30 | 2021-06-30 | 一种海洋养殖区水下场景全景图生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113538702B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114283326B (zh) * | 2021-12-22 | 2024-11-05 | 大连海事大学 | 一种结合局部感知和高阶特征重构的水下目标重识别方法 |
CN114332566A (zh) * | 2021-12-28 | 2022-04-12 | 中国航天空气动力技术研究院 | 水下图像的目标检测方法、系统及装置 |
CN115359378B (zh) * | 2022-10-22 | 2023-03-24 | 长岛国家海洋公园管理中心(庙岛群岛海豹省级自然保护区管理中心) | 一种基于近海海洋垃圾分布确定打捞路径的海洋打捞设备 |
CN117094895B (zh) * | 2023-09-05 | 2024-03-26 | 杭州一隅千象科技有限公司 | 图像全景拼接方法及其系统 |
CN117633283A (zh) * | 2023-11-24 | 2024-03-01 | 北京百度网讯科技有限公司 | 图像检索方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013116100A1 (en) * | 2012-01-30 | 2013-08-08 | Google Inc. | Apparatus and method for acquiring underwater images |
CN109993091A (zh) * | 2019-03-25 | 2019-07-09 | 浙江大学 | 一种基于背景消除的监控视频目标检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9402026B2 (en) * | 2013-01-05 | 2016-07-26 | Circular Logic Systems, Inc. | Spherical panoramic image camera rig |
JP6514125B2 (ja) * | 2016-01-27 | 2019-05-15 | 京セラ株式会社 | 電子機器、電子機器の制御方法、制御プログラム並びに制御装置 |
-
2021
- 2021-06-30 CN CN202110738641.7A patent/CN113538702B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013116100A1 (en) * | 2012-01-30 | 2013-08-08 | Google Inc. | Apparatus and method for acquiring underwater images |
CN109993091A (zh) * | 2019-03-25 | 2019-07-09 | 浙江大学 | 一种基于背景消除的监控视频目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113538702A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113538702B (zh) | 一种海洋养殖区水下场景全景图生成方法 | |
Li et al. | Uav-human: A large benchmark for human behavior understanding with unmanned aerial vehicles | |
Wang et al. | Real-time underwater onboard vision sensing system for robotic gripping | |
WO2021142902A1 (zh) | 基于DANet的无人机海岸线漂浮垃圾巡检系统 | |
Levy et al. | Automated analysis of marine video with limited data | |
CN111986240A (zh) | 基于可见光和热成像数据融合的落水人员检测方法及系统 | |
CN112669350A (zh) | 一种自适应特征融合的智能变电站人体目标跟踪方法 | |
CN110335245A (zh) | 基于单目时空连续图像的网箱网衣破损监测方法及系统 | |
Arvind et al. | Fish detection and tracking in pisciculture environment using deep instance segmentation | |
CN110941996A (zh) | 一种基于生成对抗网络的目标及轨迹增强现实方法和系统 | |
Rasmussen et al. | Deep census: AUV-based scallop population monitoring | |
CN113591592B (zh) | 水上目标识别方法、装置、终端设备及存储介质 | |
CN117058232A (zh) | 一种改进YOLOv8模型的养殖鱼群中鱼类目标个体的位置检测方法 | |
Xin et al. | ULL-SLAM: underwater low-light enhancement for the front-end of visual SLAM | |
CN116229069A (zh) | 一种黑暗条件下水面无人艇的红外岸线分割与目标检测融合方法 | |
CN116659516B (zh) | 基于双目视差机制的深度立体注意力视觉导航方法及装置 | |
CN104104911A (zh) | 全景图像生成过程中的时间戳消除和重置方法及系统 | |
Galloway et al. | Predicting dreissenid mussel abundance in nearshore waters using underwater imagery and deep learning | |
CN117911790A (zh) | 一种基于改进YOLOX-nano算法的鱼类检测与识别方法 | |
CN117173631A (zh) | 一种生物多样性的监控方法和系统 | |
CN116724964A (zh) | 基于灯光诱集的鱼类检测系统及方法 | |
CN114119713A (zh) | 一种基于人工智能与无人机遥感的林地空秃检测方法 | |
Gentili et al. | Detection and classification of man-made objects for the autonomy of underwater robots | |
Too et al. | A feasibility study on novel view synthesis of underwater structures using neural radiance fields | |
Tian | Effective image enhancement and fast object detection for improved UAV applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |