CN112197765A - 一种实现水下机器人精细导航的方法 - Google Patents
一种实现水下机器人精细导航的方法 Download PDFInfo
- Publication number
- CN112197765A CN112197765A CN202010963755.7A CN202010963755A CN112197765A CN 112197765 A CN112197765 A CN 112197765A CN 202010963755 A CN202010963755 A CN 202010963755A CN 112197765 A CN112197765 A CN 112197765A
- Authority
- CN
- China
- Prior art keywords
- auv
- error
- attitude
- navigation
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000004927 fusion Effects 0.000 claims abstract description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 3
- 239000011159 matrix material Substances 0.000 claims description 22
- 230000001133 acceleration Effects 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000005484 gravity Effects 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000008676 import Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 abstract description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 240000007651 Rubus glaucus Species 0.000 description 1
- 235000011034 Rubus glaucus Nutrition 0.000 description 1
- 235000009122 Rubus idaeus Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/04—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means
- G01C21/08—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means involving use of the magnetic field of the earth
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Environmental & Geological Engineering (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geology (AREA)
- Navigation (AREA)
Abstract
本发明涉及水下机器人导航技术,旨在提供一种实现水下机器人精细导航的方法。包括:获得AUV的初始位姿;计算AUV在行进过程中的姿态、速度和位置;利用摄像机采集的水下图像信息,计算AUV的姿态和位置,并初始化AUV地图;对九轴传感器和摄像机采集的信息进行传感器信息融合,获得AUV最优位姿信息;根据AUV的最优位姿对地图进行更新;本发明利用九轴传感器的数据高更新率的特点,提高导航信息数据量;利用基于九轴的惯性导航提供每时刻的运动数据,为视觉导航提供尺度信息,同时解决视觉导航在水下匹配失真问题;利用视觉导航解决惯性导航的累积误差问题。本方法通过对AUV的位姿进行误差补偿,可以使AUV的位置误差,提高导航精度。
Description
技术领域
本发明属于水下机器人导航技术领域,特别涉及一种针对自主水下机器人(Autonomous Underwater Vehicle,AUV)的精细导航方法。
背景技术
在近几年,人类开始广泛应用水下机器人对海底环境进行探索,采集深海海底生物、海底地形图像信息。水下机器人能够保证其自身安全并且正常完成一切任务的基础是:知道其自身的位置,即保证可靠的导航定位。随着深海科学调查的快速发展,海底调查任务需要构建小尺度的水下环境地图,因此对水下精细导航技术提出了迫切的需求。由于这些任务往往是利用水下机器人在某小片区域进行工作,相对于水下机器人整体活动区域尺度而言,工作区域是很小的,因此称为小微尺度。同时在工作区域中,AUV需要完成一系列操作,与特定位置环境进行互动,这就要求AUV的位置误差尽可能的小,数据更新率尽可能高,意味着需要对AUV进行高精度导航,这种高精度导航也被称为精细导航。目前水下导航过程中存在以下问题:1)在水下GPS设备无法使用;2)水下声学设备成本高、水听器布设麻烦等。
为了解决以上难题,研究人员提出利用水下地形作为参考,利用地形匹配系统与惯性导航系统结合为AUV提供导航,但这种水下导航仅使用于AUV大尺度航行,其误差为米级,不适用于小范围工作导航;同时研究人员针对部分水下作业(如水下装置充电、对准等),提出利用单目摄像机寻找已知特征的水下标志物对AUV进行导航。这种导航方式的精度一般在厘米级,但极其依赖于水下先验的环境知识,而AUV在大部分工作时面对的是未知的水下环境。同时目前的水下导航方式均采用含有惯性导航方式的组合导航方式,受惯性导航平台所限,其数据更新率一般在秒级,数据刷新率低,难以精确地对AUV进行控制。
发明内容
本发明要解决的技术问题是,克服现有技术中的不足,提供一种实现水下机器人精细导航的方法。
为解决技术问题,本发明的解决方案是:
提供一种实现水下机器人精细导航的方法,该方法是利用九轴传感器获取AUV的运动信息,同时利用光学摄像机采集水底环境特征;在AUV运行时拍摄水底图像,通过环境图像建立水下环境地图,并通过传感器信息融合获得水下机器人自身位置以用于精细导航;具体包括以下步骤:
步骤一:获得AUV的初始位姿;
(1)利用陀螺仪和加速度计获取运动信息与周围磁场状态;
(2)利用加速度测量值计算静止状态下AUV的部分姿态:
由于在AUV静止时只受重力状态,静止状态有重力加速度,本发明通过静止状态下AUV的加速度来确定AUV的部分姿态。
通过向量关系得到AUV的俯仰角和横滚角:
其中,θ为俯仰角,以东方向为旋转轴的右手螺旋方向为正;γ为横滚角,以北方向为旋转轴的右手螺旋方向为正,|fb|表示载体加速度值;
(3)利用磁力计确定AUV的航向:
由于水平面垂直于重力方向,因此无论AUV在水平面朝向哪个方向,其加速度计测量值均相同,因此无法通过加速度计确定AUV航向角。木发明采用磁力计对AUV 航向进行确定。
通过向量关系得到AUV的艏向角:
其中ψ为AUV艏向角,其以北偏东为正;
步骤二:计算AUV在行进过程中的姿态、速度和位置;
(1)AUV姿态更新
其中,Q(tk)表示t=k时刻时AUV的姿态,Q(tk+1)表示t=k+1时刻时AUV的姿态,Q=[q0,q1,q2,q3]为姿态四元数,qi,i=0~3是四元数参数,I表示单位阵,Δt表示陀螺仪采样间隔,ΔΘ为中间变量(无特别含义,其设置目的是避免公式太长难以阅读);
Vn=[VE VN VU,]T,表示AUV在东、北、天方向的速度;上标n表示惯性坐标系,以东方向为x轴,北方向为y轴,天为z轴;RM为AUV所在点子午圈曲率半径,RN为 AUV所在点卯酉圈曲率半径;是AUV姿态矩阵表示载体坐标系到惯性坐标系的转换关系,可由姿态四元数直接得到,L表示AUV的纬度,h表示AUV相对于水平面的高度;
其中:
(2)AUV速度更新
AUV速度可表示为:
(3)AUV位置更新
AUV位置矩阵可表示为:
其中:
同时:
式中I为单位阵,ξm为中间变量;
通过位置矩阵获得AUV经纬度,获得方法如下;
L=arcsin P33
步骤三:利用摄像机采集的水下图像信息,计算AUV的姿态和位置,并初始化AUV地图;
(1)利用摄像机进行光学图像采集,得到光学图像;
(2)利用ORB算法提取相邻图像特征点,并对其进行匹配;定义匹配完成的特征集为mt,其中t是当前时刻;
(3)优化ORB特征匹配;
(4)利用本质矩阵、单应矩阵或PnP方法,求解AUV位姿;
步骤四:对九轴传感器和摄像机采集的信息进行传感器信息融合,获得AUV最优位姿信息;
采用卡尔曼滤波器以九轴惯性导航误差方程(姿态、速度、位置)为状态方程;以九轴惯性导航误差方程的解算值与步骤三的解算值之差作为观测值进行滤波;
(1)计算九轴惯性导航误差方程:
(1.1)速度误差方程:
式中δVn表示速度的误差量,表示速度的误差量的导数,φE、φN、φU是姿态误差角,fb是加速度计测量值,是当前时刻姿态矩阵, 表示位置速率的误差量,δh表示高度误差,δL表示纬度误差,表示地球自转速率的误差量,
(1.2)位置误差方程:
(1.3)姿态误差方程:
(2)将误差方程的解算值作为卡尔曼滤波方程的状态量
利用步骤二可获得AUV的姿态、位置、速度,令
利用卡尔曼滤波器对误差大小进行量化,对导航结果进行补偿;
(3)根据摄像机的位置解算值计算AUV速度
(4)计算卡尔曼滤波器观测量
获得AUV状态的观测量Zk:
(5)进行卡尔曼滤波
步骤五:根据AUV的最优位姿对地图进行更新;
利用三角测量计算特征点位置,将特征点位置的集合即为AUV的初始特征地图。
本发明中,所述步骤三中优化ORB特征匹配的方法是:
在AUV速度超过限定值(例如5cm/s)时,对图像匹配结果进行优化;当满足优化条件时,根据2帧前的AUV位置xk-2和最近3秒的速度矢量vk-2,vk-1,vk估计下一时刻AUV的位置xk+1;具体优化方式如下:
(2)将这些点的位置根据速度矢量进行转移:其中wk-2为误差项,wk-2服从正态分布,标准差取0.025;t为每帧间隔;其中wk-1服从正态分布,标准差取0.05;其中wk服从正态分布,标准差取0.1;
本发明中,九轴传感器可选MPU9250九轴传感器(换用其他九轴传感器也可),光学摄像机可选定焦广角单目摄像机(简称为单目相机、相机或摄像机)。
发明原理描述:
本发明提出的水下机器人精细导航方法与装置,采用将单目视觉导航与基于九轴传感器的惯性导航进行结合,利用传感器信息融合方式提高导航准确率。本发明利用九轴传感器的数据高更新率的特点,提高导航信息数据量;利用基于九轴的惯性导航提供每时刻的运动数据,为视觉导航提供尺度信息,同时解决视觉导航在水下匹配失真问题;利用视觉导航解决惯性导航的累积误差问题。本方法通过卡尔曼滤波器将两种导航的优势相结合,通过对AUV的位姿进行误差补偿,可以使AUV的位置误差,提高导航精度。
与现有技术相比,本发明的有益效果在于:
(1)本发明采用光学图像采集外界信息,不需要先验的环境知识;
(2)本发明采用低成本九轴传感器,现对于传统惯性导航平台,成本低;
(3)本发明提出的导航算法导航精确度高,输出更新率高。
附图说明
图1是卡尔曼滤波器框架;
图2是本发明方法的实现流程图;
图3是本发明的装置框图。
具体实施方式
本发明所述实现水下机器人精细导航的方法,其具体内容与说明书发明内容部分的记载相同,此处不再赘述。
下面以一个装有单目摄像机与九轴传感器的水下机器人在未知工作环境中进行导航的例子,来说明本发明的方法(如图2所示)和装置(如图3所示)。
该装置包括水下机器人,按常规方式装配摄像机、九轴传感器和处理器。摄像机用于获取图像信息,并将数据传送至处理器,处理器包括但不限于计算机、树莓派、DSP 等形式。九轴传感器用于获取AUV的运动信息,并将数据传送给处理器进行处理。
该方法的实现流程如图2所示。
(1)首先对相机和九轴传感器进行校准。
(2)导入初始参数:九轴传感器数据:fb、mb;图像集数据:I (I={I1,I2,…,Im})(图像集数据是AUV开始导航后,相机拍摄到的图像序列),初始速度:V0;初始位置:L0、λ0、h0;相机内参矩阵:K;地球自转角速率:ωie;重力加速度标准值:g0;地球半长轴:Re;地球扁率:e;九轴校准参数:εa、Ka、εw、εs、Ks;相机字典;更新频率:Δt=30Hz。
(3)将传感器数据进行对齐:
采用就近方式对传感器数据进行对齐,以相机时间戳为一组以30Hz为频率的时间节点t1,t2,…,tk,…,tm,其他传感器数据在时间时的测量值为在中寻找时间点使得为最小值,将视为在时间点tk下产生的测量数据。
(4)利用九轴传感器校准参数对九轴传感器进行校准。
(5)根据步骤一所述,计算AUV初始角度γ0,θ0,ψ0。
(7)利用步骤二中,姿态更新算法计算AUV姿态Qk+1,下标k表示时间。
(10)利用步骤二中,速度更新算法计算AUV速度Vk+1。
(12)对图像集数据进行图像灰度化,获得Ik。
(13)利用步骤三中,ORB方法生成orb特征点与描述子orb_Ik。
(14)利用特征点匹配获得匹配后特征fea,并利用步骤三中提到的优化方式对fea进行优化。
(15)如果地图没有初始化,且fea中匹配对数大于50,且orb_Ik>100, orb_Ik-1>100。
b)步骤五计算地图特征map。
d)利用光束平差法对地图进行优化,获得优化后的地图map。
e)完成地图初始化。
(16)如果地图完成初始化,则利用图1所示的卡尔曼滤波器进行处理
d)利用步骤四中的(2),计算卡尔曼滤波器状态量。
e)利用步骤四中的(4),计算卡尔曼滤波器观测量。
h)利用步骤五计算地图特征map。
i)利用光束平差法对地图进行优化,获得优化后的地图map。
(17)重复(7)~(16)直至导航任务停止。
Claims (2)
1.一种实现水下机器人精细导航的方法,其特征在于,是利用九轴传感器获取AUV的运动信息,同时利用光学摄像机采集水底环境特征;在AUV运行时拍摄水底图像,通过环境图像建立水下环境地图,并通过传感器信息融合获得水下机器人自身位置以用于精细导航;具体包括以下步骤:
步骤一:获得AUV的初始位姿;
(1)利用陀螺仪和加速度计获取运动信息与周围磁场状态;
(2)利用加速度计测量静止状态下AUV的重力加速度,进而确定AUV的部分姿态;
假设AUV的加速度测量值为:
通过向量关系得到AUV的俯仰角和横滚角:
式中,θ为俯仰角,以东方向为旋转轴的右手螺旋方向为正;γ为横滚角,以北方向为旋转轴的右手螺旋方向为正,|fb|表示载体加速度值;
(3)利用磁力计确定AUV的航向:
通过向量关系得到AUV的艏向角:
其中ψ为AUV艏向角,其以北偏东为正;
步骤二:计算AUV在行进过程中的姿态、速度和位置;
(1)AUV姿态更新
其中,Q(tk)表示t=k时刻时AUV的姿态;Q(tk+1)表示t=k+1时刻时AUV的姿态;Q=[q0,q1,q2,q3]为姿态四元数,qi,i=0~3是四元数参数;I表示单位阵,Δt表示陀螺仪采样间隔,ΔΘ为无特别含义的中间变量;
Vn=[VE VN VU]T,表示AUV在东、北、天方向的速度;上标n表示惯性坐标系,以东方向为x轴,北方向为y轴,天为z轴;RM为AUV所在点子午圈曲率半径,RN为AUV所在点卯酉圈曲率半径;是AUV姿态矩阵表示载体坐标系到惯性坐标系的转换关系,由姿态四元数直接得到;L表示AUV的纬度,h表示AUV相对于水平面的高度;
其中:
(2)AUV速度更新
AUV速度表示为:
(3)AUV位置更新
AUV位置矩阵表示为:
其中:
同时:
式中I为单位阵,ξm为中间变量;
通过位置矩阵获得AUV经纬度,获得方法如下;
L=arcsin P33
步骤三:利用摄像机采集的水下图像信息,计算AUV的姿态和位置,并初始化AUV地图;
(1)利用摄像机进行光学图像采集,得到光学图像;
(2)利用ORB算法提取相邻图像特征点,并对其进行匹配;定义匹配完成的特征集为mt,其中t是当前时刻;
(3)优化ORB特征匹配;
(4)利用本质矩阵、单应矩阵或PnP方法,求解AUV位姿;
步骤四:对九轴传感器和摄像机采集的信息进行传感器信息融合,获得AUV最优位姿信息;
采用卡尔曼滤波器以九轴惯性导航误差方程(姿态、速度、位置)为状态方程;以九轴惯性导航误差方程的解算值与步骤三的解算值之差作为观测值进行滤波;
(1)计算九轴惯性导航误差方程:
(1.1)速度误差方程:
式中δVn表示速度的误差量,表示速度的误差量的导数,φE、φN、φU是姿态误差角,fb是加速度计测量值,是当前时刻姿态矩阵, 表示位置速率的误差量,δh表示高度误差,δL表示纬度误差,表示地球自转速率的误差量,
(1.2)位置误差方程:
(1.3)姿态误差方程:
(2)将误差方程的解算值作为卡尔曼滤波方程的状态量
利用步骤二获得AUV的姿态、位置、速度,令
利用卡尔曼滤波器对误差大小进行量化,对导航结果进行补偿;
(3)根据摄像机的位置解算值计算AUV速度
(4)计算卡尔曼滤波器观测量
获得AUV状态的观测量Zk:
(5)进行卡尔曼滤波
步骤五:根据AUV的最优位姿对地图进行更新;
利用三角测量计算特征点位置,将特征点位置的集合即为AUV的初始特征地图。
2.根据权利要求1所述的方法,其特征在于,所述步骤三中,优化ORB特征匹配的方法是:
在AUV速度超过限定值(例如5cm/s)时,对图像匹配结果进行优化;当满足优化条件时,根据2帧前的AUV位置xk-2和最近3秒的速度矢量vk-2,vk-1,vk估计下一时刻AUV的位置xk+1;具体优化方式如下:
(2)将这些点的位置根据速度矢量进行转移:其中wk-2为误差项,wk-2服从正态分布,标准差取0.025;t为每帧间隔;其中wk-1服从正态分布,标准差取0.05;其中wk服从正态分布,标准差取0.1;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010963755.7A CN112197765B (zh) | 2020-09-14 | 2020-09-14 | 一种实现水下机器人精细导航的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010963755.7A CN112197765B (zh) | 2020-09-14 | 2020-09-14 | 一种实现水下机器人精细导航的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112197765A true CN112197765A (zh) | 2021-01-08 |
CN112197765B CN112197765B (zh) | 2021-12-10 |
Family
ID=74016289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010963755.7A Active CN112197765B (zh) | 2020-09-14 | 2020-09-14 | 一种实现水下机器人精细导航的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112197765B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113075665A (zh) * | 2021-03-24 | 2021-07-06 | 鹏城实验室 | 水下定位方法、水下载体航行器及计算机可读存储介质 |
CN115031726A (zh) * | 2022-03-29 | 2022-09-09 | 哈尔滨工程大学 | 一种数据融合导航定位方法 |
CN117647244A (zh) * | 2023-10-19 | 2024-03-05 | 哈尔滨工程大学 | 一种水下机器人对接过程中的导航定位方法及装置 |
CN118129695A (zh) * | 2024-05-07 | 2024-06-04 | 浙江智强东海发展研究院有限公司 | 一种水下采集装置的控制方法及芯片 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101900558A (zh) * | 2010-06-04 | 2010-12-01 | 浙江大学 | 集成声纳微导航的自主式水下机器人组合导航方法 |
CN103376452A (zh) * | 2012-04-18 | 2013-10-30 | 中国科学院沈阳自动化研究所 | 一种用单台声信标修正水下机器人位置误差的方法 |
CN204228171U (zh) * | 2014-11-19 | 2015-03-25 | 山东华盾科技股份有限公司 | 一种水下机器人导航装置 |
US20160305784A1 (en) * | 2015-04-17 | 2016-10-20 | Regents Of The University Of Minnesota | Iterative kalman smoother for robust 3d localization for vision-aided inertial navigation |
EP3158411A1 (en) * | 2015-05-23 | 2017-04-26 | SZ DJI Technology Co., Ltd. | Sensor fusion using inertial and image sensors |
US20170261324A1 (en) * | 2014-07-11 | 2017-09-14 | Regents Of The University Of Minnesota | Inverse sliding-window filters for vision-aided inertial navigation systems |
CN107314768A (zh) * | 2017-07-06 | 2017-11-03 | 上海海洋大学 | 水下地形匹配辅助惯性导航定位方法及其定位系统 |
US20190242711A1 (en) * | 2018-02-08 | 2019-08-08 | Raytheon Company | Image geo-registration for absolute navigation aiding using uncertainy information from the on-board navigation system |
CN110888104A (zh) * | 2019-11-04 | 2020-03-17 | 浙江大学 | 一种接近信标轨迹下的水下机器人定位方法 |
-
2020
- 2020-09-14 CN CN202010963755.7A patent/CN112197765B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101900558A (zh) * | 2010-06-04 | 2010-12-01 | 浙江大学 | 集成声纳微导航的自主式水下机器人组合导航方法 |
CN103376452A (zh) * | 2012-04-18 | 2013-10-30 | 中国科学院沈阳自动化研究所 | 一种用单台声信标修正水下机器人位置误差的方法 |
US20170261324A1 (en) * | 2014-07-11 | 2017-09-14 | Regents Of The University Of Minnesota | Inverse sliding-window filters for vision-aided inertial navigation systems |
CN204228171U (zh) * | 2014-11-19 | 2015-03-25 | 山东华盾科技股份有限公司 | 一种水下机器人导航装置 |
US20160305784A1 (en) * | 2015-04-17 | 2016-10-20 | Regents Of The University Of Minnesota | Iterative kalman smoother for robust 3d localization for vision-aided inertial navigation |
EP3158411A1 (en) * | 2015-05-23 | 2017-04-26 | SZ DJI Technology Co., Ltd. | Sensor fusion using inertial and image sensors |
CN107314768A (zh) * | 2017-07-06 | 2017-11-03 | 上海海洋大学 | 水下地形匹配辅助惯性导航定位方法及其定位系统 |
US20190242711A1 (en) * | 2018-02-08 | 2019-08-08 | Raytheon Company | Image geo-registration for absolute navigation aiding using uncertainy information from the on-board navigation system |
CN110888104A (zh) * | 2019-11-04 | 2020-03-17 | 浙江大学 | 一种接近信标轨迹下的水下机器人定位方法 |
Non-Patent Citations (3)
Title |
---|
JI, DAXIONG 等: "Visual detection and feature recognition of underwater target using a novel model-based method", 《INTERNATIONAL JOURNAL OF ADVANCED ROBOTIC SYSTEMS》 * |
李晓东: "水下运载器小范围高精度组合导航系统研究", 《中国优秀硕士学位论文全文数据库中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 * |
高明: "基于视觉和惯性导航的水下机器人组合定位设计", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113075665A (zh) * | 2021-03-24 | 2021-07-06 | 鹏城实验室 | 水下定位方法、水下载体航行器及计算机可读存储介质 |
CN113075665B (zh) * | 2021-03-24 | 2023-06-20 | 鹏城实验室 | 水下定位方法、水下载体航行器及计算机可读存储介质 |
CN115031726A (zh) * | 2022-03-29 | 2022-09-09 | 哈尔滨工程大学 | 一种数据融合导航定位方法 |
CN117647244A (zh) * | 2023-10-19 | 2024-03-05 | 哈尔滨工程大学 | 一种水下机器人对接过程中的导航定位方法及装置 |
CN118129695A (zh) * | 2024-05-07 | 2024-06-04 | 浙江智强东海发展研究院有限公司 | 一种水下采集装置的控制方法及芯片 |
Also Published As
Publication number | Publication date |
---|---|
CN112197765B (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112197765B (zh) | 一种实现水下机器人精细导航的方法 | |
CN111947652B (zh) | 一种适用于月球着陆器的惯性/视觉/天文/激光测距组合导航方法 | |
CN112629538B (zh) | 基于融合互补滤波和卡尔曼滤波的舰船水平姿态测量方法 | |
CN111426318B (zh) | 基于四元数-扩展卡尔曼滤波的低成本ahrs航向角补偿方法 | |
Bao et al. | Integrated navigation for autonomous underwater vehicles in aquaculture: A review | |
CN106780699B (zh) | 一种基于sins/gps和里程计辅助的视觉slam方法 | |
CN110501024B (zh) | 一种车载ins/激光雷达组合导航系统的量测误差补偿方法 | |
CN106871928B (zh) | 基于李群滤波的捷联惯性导航初始对准方法 | |
CN110954102B (zh) | 用于机器人定位的磁力计辅助惯性导航系统及方法 | |
CN113551668B (zh) | 一种航天器惯性/恒星星光矢量/星光折射组合导航方法 | |
CN102829785A (zh) | 基于序列图像和基准图匹配的飞行器全参数导航方法 | |
CN109916394A (zh) | 一种融合光流位置和速度信息的组合导航算法 | |
CN116295511B (zh) | 一种用于管道潜航机器人的鲁棒初始对准方法及系统 | |
CN113375665B (zh) | 基于多传感器松紧耦合的无人机位姿估计方法 | |
CN112378399A (zh) | 基于捷联惯导和数字全站仪的煤矿巷道掘进机器人精确定位定向方法 | |
CN113686299B (zh) | 一种海上动态目标定位与移速预测方法 | |
CN112880669A (zh) | 一种航天器星光折射和单轴旋转调制惯性组合导航方法 | |
CN101639365A (zh) | 基于二阶插值滤波器的自主式水下潜器海上对准方法 | |
CN112525204B (zh) | 一种航天器惯性和太阳多普勒速度组合导航方法 | |
CN105300407A (zh) | 一种用于单轴调制激光陀螺惯导系统的海上动态启动方法 | |
CN110672124A (zh) | 离线杠杆臂估计方法 | |
CN115371706A (zh) | 一种基于罗德里格斯参数的李群捷联惯导误差模型统一式 | |
CN109737950B (zh) | 基于vio和动力学模型的水下机器人定位系统及方法 | |
CN114440878A (zh) | 一种sins和dvl组合导航方法、设备与系统 | |
CN113237485A (zh) | 一种基于多传感器融合的slam方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |