CN114459461B - 一种基于gis与实时光电视频的导航定位方法 - Google Patents
一种基于gis与实时光电视频的导航定位方法 Download PDFInfo
- Publication number
- CN114459461B CN114459461B CN202210093987.0A CN202210093987A CN114459461B CN 114459461 B CN114459461 B CN 114459461B CN 202210093987 A CN202210093987 A CN 202210093987A CN 114459461 B CN114459461 B CN 114459461B
- Authority
- CN
- China
- Prior art keywords
- carrier
- image
- photoelectric
- data
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000000007 visual effect Effects 0.000 claims abstract description 29
- 230000003068 static effect Effects 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 42
- 239000002131 composite material Substances 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims 1
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000013507 mapping Methods 0.000 abstract description 2
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000009412 basement excavation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明属于机载光电侦察、态势感知领域,公开了一种基于GIS(地理信息系统)与实时光电视频的导航定位方法,包括:载机实时位姿传感器数据和瞄准线姿态数据获取;生成静态的三维场景;生成动态合成视觉;获取对应的传感器图像;进行光电图像与合成视觉图像的配准与映射;根据匹配点对进行二者图像的相对位姿结算,基于解算内容求解载机的高精度定位数据。本发明通过相关技术手段实现载机的空间定位,比载机平台导航系统自身提供的位姿数据精度有所提升;并能够在短暂拒止环境下计算载机空间位置,从而提供一种拒止环境下的载机定位能力。
Description
技术领域
本发明属于机载光电侦察、态势感知领域,涉及一种基于GIS(地理信息系统)与实时光电视频的导航定位方法。
背景技术
传统的导航技术依赖于GPS或者北斗系统,属于外源性导航,即对于本体的空间定位数据,一般通过无线信号系统获取。该技术存在的一个缺陷是容易受到外部电磁信号的干扰导致缺失定位数据,或者受到诱骗接收到误导的定位数据。
机载光电系统提供了类似于视觉信号的图像信息,具有内源性,即一般较少受到外界干扰,主要基于自身获得的图像信息进行解算。通过结合GIS与实时光电视频的匹配,结合空间光电成像几何三维模型可以确定载机的定位信息。该技术可辅助用于拒止环境下或者强干扰环境下的定位导航能力,而拒止环境下的定位能力,是现代战场作战飞机不可或缺的能力。
发明内容
(一)发明目的
本发明的目的是:提供一种基于GIS(地理信息系统)与实时光电视频的导航定位方法,快速的计算更高精度的载机空间位置和姿态,提供更好的载机定位能力。
(二)技术方案
为实现将载机更高精度的定位能力,需要同时采集光电系统图像与对应区域的合成视觉图像,将光电系统的图像与合成视觉图像进行配准之后;求解出光电系统的图像相对于合成视觉图像的空间运动,基于原始的载机位姿数据,解算出更高精度的载机空间位置。本发明基于GIS(地理信息系统)与实时光电视频的导航定位方法,包括:括三维合成视觉生成,光电图像采集,光电图像与三维场景配准融合,光电图像与合成视觉图像相对位姿解算,高精度载机位置解算等主要步骤。三维合成视觉利用真实地形数据生成三维地形场景,该三维场景具备了三维空间地理信息系统的能力;光电图像采集包括了图像内容中每一帧以及对应该帧的载机位姿数据,基于该帧产生时的载机位姿数据,可计算出该帧图像对应的地理探测区域;光电图像与三维场景的配准融合,将光电图像中的视频帧与三维场景中该帧对应探测区域进行配准与融合,可得到若干配准点对;基于配准点对,可计算出光电系统的图像相对于合成视觉图像的空间运动;从而进一步基于原始数据计算出高精度载机定位数据。
(三)有益效果
上述技术方案所提供的基于GIS(地理信息系统)与实时光电视频的导航定位方法,通过相关技术手段实现更高精度的载机定位能力,根据该发明提供的方法。可以将其设计为软件功能,利用该功能可实现在现代战争中,辅助提升载机在拒止环境下或者强电磁干扰环境下的定位导航能力。
附图说明
图1是本发明中方法的流程组成示意图。
具体实施方式
为使本发明的目的、内容和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
如图1所示,本发明实施例载机导航定位方法包括以下步骤:获取载机实时位姿传感器数据以及光电瞄准线姿态数据,计算基于原始载机平台导航数据的空间位置转换矩阵和空间姿态转换矩阵;根据预置的地形数据生成三维静态场景;获取对应时空关系的实时光电图像;根据空间位置转换矩阵和空间姿态转换矩阵驱动三维静态场景,生成动态的合成视觉图像,将光电图像与合成视觉图像进行匹配得到匹配点对;基于匹配点对解算合成视觉图像相对光电图像的空间运动位姿估计;求解高精度载机空间定位数据。
下面对上述过程中的每个步骤进行详细描述:
S1:获取载机实时位姿传感器数据以及光电瞄准线实时数据,计算载机的空间位置转换矩阵和空间姿态转换矩阵
载机的位姿参数主要包括载机位置参数和姿态参数,位置参数包括经度、纬度、高度,分别记为L、B、H,位置数据以地理坐标系为基准,经度、纬度单位为度,姿态参数包括航向角、俯仰角、横滚角,分别记为a、p、r,单位为度,该角度以东北天坐标系为基准。光电瞄准线姿态数据包括瞄准线的俯仰角和方位角,分别记为alos、plos,该角度以载机坐标系为基准。
获取包括载机位置、姿态,瞄准线姿态在内的共8个数据,作为后续动态连续合成视觉图像生成步骤的输入。
空间位置转换矩阵记为Mpos,姿态矩阵Mpos采用如下计算过程:
其中,n,u,v是转换坐标系下的基向量,nx,ny,nz分别是向量n的x,y,z分量,ux、uy、uz分别是向量u的x,y,z分量,vx、vy、vz分别是向量v的x,y,z分量),其计算采用如下公式:
n=(cos Lcos B,sin Lcos B,sin B)
vpx是地心坐标下的载机位置vp的x分量,vpy是地心坐标下的载机位置vp的y分量,vpz是地心坐标下的载机位置vp的z分量,计算采用如下公式:
vpx=(N+H)cos B cos L
vpy=(N+H)cos B sin L
vpz=[(N(1-e2)+H]sin B
其中,L,B分别是上述步骤中采集得到的载机位置数据中每一帧的经度和纬度,N为卯酉圈半径,e2为第一偏心率,分别采用如下计算公式:
上式中,a,c分别为地球椭球体模型的长半径和短半径,
a=6378137.0m
c=6356752.3142m。
空间姿态转换矩阵记为Matti
姿态矩阵Matti采用如下计算过程,首先根据载机的姿态数据构建四元数,记为q:
其中,a,p,r分别为上述步骤中采集得到的载机的航向角、俯仰角、横滚角;
S2:三维静态场景生成
基于载机所在地理区域的地形数据,包含高程数据和卫星纹理影像数据,生成该区域的三维地理场景SCENEstategraph;以该区域三维地理场景SCENEstategraph为输入,S1阶段采集得到的载机位姿数据Mpos,Matti,瞄准线姿态Mlos为输入,其中Mlos为瞄准线姿态数据构建的瞄准线空间变换矩阵,计算得到复合转换矩阵Mcomposite,由复合矩阵Mcomposite驱动生成的三维静态场景
Mcomposite=Mlos*Matti*Mpos
即可生成动态连续的合成视觉图像,其中某一帧的图像记为fsvs(x,y,z,t)
S3:机载光电系统实时光电图像获取:
机载光电系统实时光电图像由光电转塔发送,不同的传感器有不同的帧率,根据帧率接收每一帧图像数据,记为feo(x,y,t),作为后续配准融合步骤的输入。
S4:实时光电图像与合成视觉图像进行匹配:
以步骤S2、步骤S3输出的合成视觉图像fsvs(x,y,z,t)与载机实时光电图像feo(x,y,t)为基础,利用相位一致性对合成视觉图像与实时光电图像进行多模态匹配,可得到大量匹配特征点,挑选其中不小于3对匹配点对,记为P1(svs1,eo1),P2(svs2,eo2),P3(svs3,eo3);作为后续目标地理位置解算步骤的输入。
S5:合成视觉图像相对于实时光电图像的空间位姿运动估计
以步骤S4输出的合成视觉图像与光电图像匹配点P1(svs1,eo1),P2(svs2,eo2),P3(svs3,eo3)对为输入,以PnP(Perspective-n-Point)方法求解合成视觉图像中3维点到光电图像2维点的旋转和平移运动,可得到合成视觉图像相对于实时光电图像的旋转矩阵,记为Reo-svs,和平移矩阵,记为Teo-svs。
S6:高精度载机空间定位数据解算
以S5阶段得到的平移矩阵Teo-svs为输入,进行其次变换,得到齐次化平移矩阵,记为S1阶段计算得到基于原始导航数据的空间位置矩阵为Mpos,基于此,计算更高精度的空间位置矩阵,记为Mpos_high:
计算完成后,可快速从Mpos_high矩阵中分离出更高精度的载机空间定位数据。
由上述技术方案可以看出,本发明利用地理信息系统对大规模三维场景的空间描述能力,将光电传感器图像与空间场景匹配后,形成匹配点对,从而计算出合成视觉图像相对于实时光电图像的空间位姿运动,进一步修正了原始导航数据中的误差,提升导航定位精度。该方法结合测绘领域以及信息融合处理的成果,以软件方式实现了一种新的载机导航定位方法,对于机载航电系统有较强的工程应用意义,无须激光测距等硬件设备的支持,易于在以往航电系统改造升级中实现,可提高直升机的目标侦察能力和多目标侦察能力,其战术意义值得进一步挖掘,提升直升机的战场生存能力。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (1)
1.一种基于GIS与实时光电视频的导航定位方法,其特征在于,包括以下步骤:
S1:获取载机实时位姿传感器数据以及光电瞄准线姿态数据,计算载机的空间位置转换矩阵和空间姿态转换矩阵;
S2:三维静态场景生成;
S3:机载光电系统实时光电图像获取;
S4:合成视觉图像与实时光电图像匹配;
S5:合成视觉图像与实时光电图像相对位姿估计;
S6:高精度载机定位数据解算;
所述步骤S1中,位姿传感器数据包括位置参数和姿态参数,位置参数包括经度、纬度、高度,分别记为L、B、H,位置数据以地理坐标系为基准,经度、纬度单位为度,姿态参数包括航向角、俯仰角、横滚角,分别记为a、p、r,单位为度,该角度以东北天坐标系为基准;光电瞄准线姿态数据包括瞄准线的俯仰角和方位角,分别记为alos、plos,该角度以载机坐标系为基准;
所述步骤S1中,空间位置转换矩阵的计算过程为:
空间位置转换矩阵记为Mpos:
其中,n,u,v是转换坐标系下的基向量,nx,ny,nz分别是向量n的x,y,z分量,ux、uy、uz分别是向量u的x,y,z分量,vx、vy、vz分别是向量v的x,y,z分量),其计算采用如下公式:
n=(cosLcosB,sinLcosB,sinB)
vpx是地心坐标下的载机位置vp的x分量,vpy是地心坐标下的载机位置vp的y分量,vpz是地心坐标下的载机位置vp的z分量,计算采用如下公式:
vpx=(N+H)cosBcosL
vpy=(N+H)cosBsinL
vpz=[(N(1-e2)+H]sinB
其中,L,B分别是上述步骤中采集得到的载机位置数据中每一帧的经度和纬度,N为卯酉圈半径,e2为第一偏心率,分别采用如下计算公式:
上式中,a,c分别为地球椭球体模型的长半径和短半径,
a=6378137.0m
c=6356752.3142m;
所述步骤S1中,空间姿态转换矩阵记为Matti,计算过程为:
首先根据载机的姿态数据构建四元数,记为q:
其中,a,p,r分别为上述步骤中采集得到的载机的航向角、俯仰角、横滚角;
所述步骤S2中,基于载机所在地理区域的地形数据,包含高程数据和卫星纹理影像数据,生成该区域的三维静态地理场景SCENEstategraph,并根据该场景生成合成视觉图像,具体步骤包括:
4.1根据载机位姿数据构建空间变换矩阵,包括位置空间变换矩阵Mpos和姿态空间变换矩阵Matti;
4.2根据瞄准线姿态数据构建瞄准线空间变换矩阵Mlos,Mlos的构建方法与Matti类似,以瞄准线的方位角和俯仰角替换载机姿态空间变换矩阵航向角和俯仰角,横滚角置零;
4.3根据上述步骤构建复合空间变换矩阵Mcomposite,Mcomposite=Mlos*Matti*Mpos;
4.4以三维静态场景生成的场景节点树为对象SCENEstategraph,应用复合空间变换矩阵Mcomposite,生成动态连续的合成视觉图像,记为SVSsequce,其中某一帧的图像记为fsvs(x,y,z,t);
所述步骤S3中,机载光电系统实时光电图像由光电转塔发送,根据特定帧率接收每一帧图像数据,记为feo(x,y,t);
所述步骤S4中,将实时光电图像与合成视觉图像进行匹配:根据步骤S2和S3得到的实时光电图像fsvs(x,y,z,t)和合成视觉图像feo(x,y,t),利用相位一致性进行多模态匹配,得到不小于3对匹配点对,记为P1(svs1,eo1),P2(svs2,eo2),P3(svs3,eo3);
所述步骤S5中,根据步骤S4输出的合成视觉图像与光电图像匹配点对P1(svs1,eo1),P2(svs2,eo2),P3(svs3,eo3),以开源计算机视觉处理库的PnP方法求解合成视觉图像中3维点到光电图像2维点的旋转和平移运动,得到合成视觉图像相对于实时光电图像的旋转矩阵和平移矩阵,旋转矩阵记为Reo-svs,平移矩阵记为Teo-svs;
所述步骤S6中,对步骤S5阶段得到的平移矩阵Teo-svs,进行齐次变换,得到齐次化平移矩阵,记为根据S1阶段计算得到的载机空间位置矩阵Mpos,计算高精度的空间位置矩阵,记为Mpos_high,计算公式如下:
计算完成后,从Mpos_high矩阵中分离出更高精度的载机空间定位数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210093987.0A CN114459461B (zh) | 2022-01-26 | 2022-01-26 | 一种基于gis与实时光电视频的导航定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210093987.0A CN114459461B (zh) | 2022-01-26 | 2022-01-26 | 一种基于gis与实时光电视频的导航定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114459461A CN114459461A (zh) | 2022-05-10 |
CN114459461B true CN114459461B (zh) | 2023-11-28 |
Family
ID=81412201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210093987.0A Active CN114459461B (zh) | 2022-01-26 | 2022-01-26 | 一种基于gis与实时光电视频的导航定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114459461B (zh) |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19625727A1 (de) * | 1996-06-27 | 1998-01-02 | Bernd Porr | Verfahren zur dreidimensionalen Echtzeit-Stereobildanalyse |
JP2003216982A (ja) * | 2002-01-17 | 2003-07-31 | Sony Corp | 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム |
JP2006154131A (ja) * | 2004-11-26 | 2006-06-15 | Ntt Docomo Inc | 画像表示装置、立体画像表示装置及び立体画像表示システム |
JP2017063244A (ja) * | 2015-09-24 | 2017-03-30 | キヤノン株式会社 | 撮像装置 |
CN109612512A (zh) * | 2018-10-23 | 2019-04-12 | 南京航空航天大学 | 一种空基光电系统多模态一体化测试平台及测试方法 |
CN110296688A (zh) * | 2019-05-16 | 2019-10-01 | 武汉新瑞通达信息技术有限公司 | 一种基于被动地理定位技术的侦测一体倾斜航测吊舱 |
CN110930508A (zh) * | 2019-11-27 | 2020-03-27 | 西安应用光学研究所 | 二维光电视频与三维场景融合方法 |
CN112184786A (zh) * | 2020-10-16 | 2021-01-05 | 西安应用光学研究所 | 一种基于合成视觉的目标定位方法 |
CN112365591A (zh) * | 2020-09-29 | 2021-02-12 | 西安应用光学研究所 | 一种基于合成视觉的空地协同综合态势生成方法 |
CN112381935A (zh) * | 2020-09-29 | 2021-02-19 | 西安应用光学研究所 | 一种合成视觉生成及多元融合装置 |
CN112419211A (zh) * | 2020-09-29 | 2021-02-26 | 西安应用光学研究所 | 一种基于合成视觉的夜视系统图像增强方法 |
WO2021188596A1 (en) * | 2020-03-17 | 2021-09-23 | Siemens Healthcare Diagnostics Inc. | Compact clinical diagnostics system with planar sample transport |
CN114463234A (zh) * | 2022-01-26 | 2022-05-10 | 西安应用光学研究所 | 一种基于综合视景的三维障碍数据保形融合方法 |
CN114777760A (zh) * | 2022-04-08 | 2022-07-22 | 岭南师范学院 | 一种基于双波长相位解调的矿井下人员定位系统 |
CN114964248A (zh) * | 2022-04-07 | 2022-08-30 | 西安应用光学研究所 | 一种运动轨迹出视场的目标位置计算和指示方法 |
CN114964249A (zh) * | 2022-04-07 | 2022-08-30 | 西安应用光学研究所 | 一种三维数字地图与实时光电视频同步关联方法 |
-
2022
- 2022-01-26 CN CN202210093987.0A patent/CN114459461B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19625727A1 (de) * | 1996-06-27 | 1998-01-02 | Bernd Porr | Verfahren zur dreidimensionalen Echtzeit-Stereobildanalyse |
JP2003216982A (ja) * | 2002-01-17 | 2003-07-31 | Sony Corp | 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム |
JP2006154131A (ja) * | 2004-11-26 | 2006-06-15 | Ntt Docomo Inc | 画像表示装置、立体画像表示装置及び立体画像表示システム |
JP2017063244A (ja) * | 2015-09-24 | 2017-03-30 | キヤノン株式会社 | 撮像装置 |
CN109612512A (zh) * | 2018-10-23 | 2019-04-12 | 南京航空航天大学 | 一种空基光电系统多模态一体化测试平台及测试方法 |
CN110296688A (zh) * | 2019-05-16 | 2019-10-01 | 武汉新瑞通达信息技术有限公司 | 一种基于被动地理定位技术的侦测一体倾斜航测吊舱 |
CN110930508A (zh) * | 2019-11-27 | 2020-03-27 | 西安应用光学研究所 | 二维光电视频与三维场景融合方法 |
WO2021188596A1 (en) * | 2020-03-17 | 2021-09-23 | Siemens Healthcare Diagnostics Inc. | Compact clinical diagnostics system with planar sample transport |
CN112365591A (zh) * | 2020-09-29 | 2021-02-12 | 西安应用光学研究所 | 一种基于合成视觉的空地协同综合态势生成方法 |
CN112381935A (zh) * | 2020-09-29 | 2021-02-19 | 西安应用光学研究所 | 一种合成视觉生成及多元融合装置 |
CN112419211A (zh) * | 2020-09-29 | 2021-02-26 | 西安应用光学研究所 | 一种基于合成视觉的夜视系统图像增强方法 |
CN112184786A (zh) * | 2020-10-16 | 2021-01-05 | 西安应用光学研究所 | 一种基于合成视觉的目标定位方法 |
CN114463234A (zh) * | 2022-01-26 | 2022-05-10 | 西安应用光学研究所 | 一种基于综合视景的三维障碍数据保形融合方法 |
CN114964248A (zh) * | 2022-04-07 | 2022-08-30 | 西安应用光学研究所 | 一种运动轨迹出视场的目标位置计算和指示方法 |
CN114964249A (zh) * | 2022-04-07 | 2022-08-30 | 西安应用光学研究所 | 一种三维数字地图与实时光电视频同步关联方法 |
CN114777760A (zh) * | 2022-04-08 | 2022-07-22 | 岭南师范学院 | 一种基于双波长相位解调的矿井下人员定位系统 |
Non-Patent Citations (5)
Title |
---|
An integrated radar imaging system for the STAR-2 aircraft;Akam B 等;《Proceeding of the 1988 IEEE national radar conference》;28-32 * |
一种直升机光电图像定位方法研究;何鹏;庞澜;何樱;高强;张鑫诚;;光学与光电技术(01);87-92 * |
一种直升机光电图像定位方法研究;和鹏 等;《光学与光电技术》;第16卷(第1期);83-88 * |
军用机载光电探测系统发展动向分析;范晋祥;《2016年红外、遥感技术与应用研讨会暨交叉学科论坛》;377-382 * |
机载图像辅助导航实时匹配算法研究;张涛;杨丽梅;;计算机测量与控制(11);149-151 * |
Also Published As
Publication number | Publication date |
---|---|
CN114459461A (zh) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
CN112184786B (zh) | 一种基于合成视觉的目标定位方法 | |
Ravi et al. | Simultaneous system calibration of a multi-lidar multicamera mobile mapping platform | |
KR100728377B1 (ko) | 레이저 스캐너 및 무선인터넷을 이용한 변경된 지역시설물의 gis 실시간 업데이트 방법 | |
WO2019127445A1 (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
US9466143B1 (en) | Geoaccurate three-dimensional reconstruction via image-based geometry | |
CN111427061A (zh) | 一种机器人建图方法、装置,机器人及存储介质 | |
KR20190051704A (ko) | 스테레오 카메라 드론을 활용한 무기준점 3차원 위치좌표 취득 방법 및 시스템 | |
JP2009501996A (ja) | 映像の幾何補正方法およびその装置 | |
CN112461204B (zh) | 卫星对动态飞行目标多视角成像联合计算航行高度的方法 | |
CN109724586A (zh) | 一种融合深度图和点云的航天器相对位姿测量方法 | |
CN108594255B (zh) | 一种激光测距辅助光学影像联合平差方法及系统 | |
Burkard et al. | User-aided global registration method using geospatial 3D data for large-scale mobile outdoor augmented reality | |
CN109341685B (zh) | 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法 | |
Mostafa et al. | Optical flow based approach for vision aided inertial navigation using regression trees | |
CN114459461B (zh) | 一种基于gis与实时光电视频的导航定位方法 | |
CN114964248B (zh) | 一种运动轨迹出视场的目标位置计算和指示方法 | |
Shao et al. | Slam for indoor parking: A comprehensive benchmark dataset and a tightly coupled semantic framework | |
CN109003295B (zh) | 一种无人机航空影像快速匹配方法 | |
CN111667413A (zh) | 一种基于多源传感数据融合处理的图像消旋方法和系统 | |
Hariz et al. | High-Resolution Mobile Mapping Platform Using 15-mm Accuracy LiDAR and SPAN/TerraStar C-PRO Technologies | |
CN114964249A (zh) | 一种三维数字地图与实时光电视频同步关联方法 | |
CN112578363B (zh) | 激光雷达运动轨迹获取方法及装置、介质 | |
WO2021217244A1 (en) | System and method for converging mediated reality positioning data and geographic positioning data | |
Nielsen et al. | Development and flight test of a robust optical-inertial navigation system using low-cost sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |