[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN104748750A - 一种模型约束下的在轨三维空间目标姿态估计方法及系统 - Google Patents

一种模型约束下的在轨三维空间目标姿态估计方法及系统 Download PDF

Info

Publication number
CN104748750A
CN104748750A CN201310740553.6A CN201310740553A CN104748750A CN 104748750 A CN104748750 A CN 104748750A CN 201310740553 A CN201310740553 A CN 201310740553A CN 104748750 A CN104748750 A CN 104748750A
Authority
CN
China
Prior art keywords
target
characteristic
views
ordinate
attitude estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310740553.6A
Other languages
English (en)
Other versions
CN104748750B (zh
Inventor
张天序
王亮亮
周钢
李明
杨卫东
刘宽
郑亚云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201310740553.6A priority Critical patent/CN104748750B/zh
Priority to US15/106,690 priority patent/US20170008650A1/en
Priority to PCT/CN2014/085717 priority patent/WO2015096508A1/zh
Publication of CN104748750A publication Critical patent/CN104748750A/zh
Application granted granted Critical
Publication of CN104748750B publication Critical patent/CN104748750B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • B64G1/245Attitude control algorithms for spacecraft attitude control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/24Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Astronomy & Astrophysics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开一种在轨三维空间目标姿态估计方法及系统,包括离线特征库构建和在线姿态估计步骤,所述离线特征库构建步骤为:根据空间目标三维模型获取目标多视点特性视图,从中提取几何特征构成几何特征库,包含目标主体高宽比、目标纵向对称度、目标横向对称度和目标主轴倾斜角;所述在线姿态估计步骤为:对待测在轨目标图像预处理和提取特征,将提取的特征在几何特征库中匹配,匹配结果对应的特性视图所表征的目标姿态即为姿态估计结果。本发明匹配用的几何特征具有尺度不变性,只要在三维建模阶段准确获取目标各部件间的尺寸比例和位置关系,就可保证后续较高的匹配精度。整个方法实现简单、鲁棒性好、姿态估计精度高,受成像条件影响小,适用性好。

Description

一种模型约束下的在轨三维空间目标姿态估计方法及系统
技术领域
本发明属于航天技术与模式识别交叉领域,具体涉及一种适用于卫星、空间飞行器等在轨三维空间目标姿态估计方法及系统。
背景技术
国内外发射的大量通信卫星、资源卫星等空间目标可用于网络通信、航空摄影、大地测量等应用场所。对这些空间目标进行地基光电观察,分析、调整其姿态是该类系统中不可或缺的部分。由于地基望远镜系统的空间分辨率限制以及大气环境对长距离光学成像的随机干扰,使得地基传感器获取的图像容易出现目标边界模糊不清的现象。当成像目标边界模糊不清时,传统的基于特征点匹配的姿态估计及三维重建算法准确性往往会随着目标的模糊程度增加而迅速下降。姿态估计意在从二维相机坐标系获取的目标投影图像中计算出目标在三维目标坐标系下的俯仰角α和偏航角度β,一对(α,β)的角度值对应一个姿态。姿态估计的准确性对分析空间目标的部件尺寸、部件相对位置关系以及空间目标的功能属性等具有重要意义。因此,有必要研究地基长距离光学成像条件下稳健的姿态估计算法。
国内外学者对这类成像下的空间目标姿态估计算法进行了详细的研究,并且取得了相关成果。如,赵汝进、张启衡、徐智勇的“一种基于特征点间线段倾角的姿态测量方法”,见《光子学报》,2010年2月,第39卷,第2期。研究了一种基于目标特征点间倾角角度信息的目标3维姿态迭代解算方法,该方法适用于远距离弱透视成像目标和相机内参量未知条件下目标姿态求解。但算法精度严重依赖于提取到的边缘、直线、角点精度,且在迭代初值偏离真实姿态误差较大时,算法需要较多的迭代次数,运算量大,且可能出现迭代不收敛情况。地基长距离光学成像目标边界容易出现模糊不清的现象,影响特征点定位精度,因此,算法精度差。王鲲鹏、张小虎、于起峰的“基于目标特征点比例的单站图像定姿方法”,见《应用光学》2009年11月,第30卷,第6期,提出了一种针对实况记录图像的单站定姿方法,利用目标特征点坐标的比例信息及目标成像模型及坐标系间位姿参数关系,采用非线性方程组的迭代求解获得目标姿态参数。该算法求解精度高、鲁棒性好,但需要事先知道目标上的标记点,不适合非合作目标和非标记目标的姿态求解,算法适应能力差。FISHL ER MA,FISHL ER M A,BOLL ES R C.”Random sample consensus:a paradigm formodel fitting with applications to image analysis and automated cartography”[J].Communications of the ACM,1981,24(6):381-395.通过提取目标及其投影图像上的大量点对,采用一致交叉验证的方式选择最少的特征点进行姿态的三维重建。该算法需要提取大量的特征点对,运算量大,特征点对存在误匹配时,算法误差大。上述研究成果都对该类问题的特殊情况提出了自己的解决方案,各个方案具有自己的算法特点。但是算法都存在运算量大、精度差、或适应性差等问题。
发明内容
为解决现有方法运算量大、精度差、或适应性差的问题,本发明提供一种在轨三维空间目标姿态估计方法及系统,能有效地从空间目标二维图像中估计出目标的三维空间姿态信息,精度高,计算量小,适应性好。
一种在轨三维空间目标姿态估计方法,包括离线特征库构建步骤和在线姿态估计步骤:
所述离线特征库构建步骤,具体为:
(A1)根据空间目标三维模型获取表征空间目标各种姿态的目标多视点特性视图;
(A2)从各空间目标多视点特性视图中提取几何特征构成几何特征库;所述几何特征包含目标主体高宽比Ti,1、目标纵向对称度Ti,2、目标横向对称度Ti,3和目标主轴倾斜角Ti,4;所述目标主体高宽比Ti,1是指目标最小外接矩形的高宽比;所述目标纵向对称度Ti,2是指在目标最小外接矩形所围成的矩形区域内,目标上半部分面积与下半部分面积之比;所述目标横向对称度Ti,3是指在目标最小外接矩形所围成的矩形区域内,目标左半部分面积与右半部分面积之比;所述目标主轴倾斜角Ti,4是指特性视图的目标柱体主轴线与视图水平方向的夹角;
所述在线姿态估计步骤,具体为:
(B1)对待测在轨空间目标图像预处理;
(B2)对预处理后的待测图像提取特征,该特征与步骤(2)提取的特征相同;
(B3)将对待测图像提取的特征在几何特征库中进行匹配,匹配结果对应的特性视图所表征的空间目标姿态即为待测图像中的目标姿态。
进一步地,所述特征目标主体高宽比Ti,1的提取方式为:
(A2.1.1)对特性视图Fi使用最大类间方差阈值准则得到阈值Ti,将特性视图Fi中大于阈值Ti的像素灰度值fi(x,y)设置为255,小于或等于阈值Ti的像素灰度值fi(x,y)设置为零,由此得到二值图像Gi,Gi为宽度n、高度m的像素矩阵,gi(x,y)为Gi中点(x,y)处像素灰度值;
(A2.1.2)对二值图像Gi按照从上往下、从左往右的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Topj、纵坐标y=Topi,停止扫描;
(A2.1.3)对二值图像Gi按照从下往上、从左往右的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Bntj、纵坐标y=Bnti,停止扫描;
(A2.1.4)对二值图像Gi按照从左往右,从上往下的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Leftj、纵坐标y=Lefti,停止扫描;
(A2.1.5)对二值图像Gi按照从右往左,从上往下的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Rightj、纵坐标y=Righti,停止扫描;
(A2.1.6)特性视图Fi的目标主体高宽比Hi=|Topi-Bnti|,Wi=|Leftj-Rightj|,符号|V|表示变量V的绝对值。
进一步地,所述特征目标纵向对称度Ti,2的提取方式为:
(A2.2.1)计算特性视图Fi的中心点横坐标纵坐标符号表示对变量V取整数部分;
(A2.2.2)统计二值图像Gi中的,1≤横坐标x≤n,1≤纵坐标y≤Ciy的区域内,灰度值为255的像素点个数,即为特性视图Fi的目标上半部分面积STi
(A2.2.3)统计二值图像Gi中,1≤横坐标x≤n,Ciy+1≤纵坐标y≤m的区域内,灰度值为255的像素点个数,即为特性视图Fi的目标下半部分面积SDi
(A2.2.4)计算特性视图Fi的目标纵向对称度
进一步地,所述特征目标横向对称度Ti,3的提取方式为:
(A2.3.1)统计二值图像Gi中,1≤横坐标x≤Cix,1≤纵坐标y≤m的区域内,灰度值为255的像素点个数,即为特性视图Fi的目标左半部分面积SLi
(A2.3.2)统计二值图像Gi中,Cix+1≤横坐标x≤n,1≤纵坐标y≤m的区域内,灰度值为255的像素点个数,即为特性视图Fi的目标右半部分面积SRi
(A2.3.3)计算特性视图Fi的目标横向对称度
进一步地,所述特征目标主轴倾斜角Ti,4的提取方式为:
(A2.4.1)计算特性视图Fi对应的二值图像Gi重心横坐标xi0、纵坐标yi0
x i 0 = M i ( 1,0 ) / M i ( 0,0 ) y i 0 = M i ( 0,1 ) / M i ( 0,0 ) ,
式中, M i ( k , j ) = Σ x = 1 n Σ y = 1 m x k y j f i ( x , y ) , k = 0,1 , j = 0,1 ;
(A2.4.2)计算特性视图Fi对应的二值图像Gi对应的p+q阶中心矩μi(p,q):
μ i ( p , q ) = Σ x = 1 n Σ y = 1 m ( x - x i 0 ) p ( y - y i 0 ) q g i ( x , y ) , p = 0,1,2 , q = 0,1,2 ;
(A2.4.3)构建实对称矩阵 Mat = μ i ( 2,0 ) , μ i ( 1,1 ) μ i ( 1,1 ) , μ i ( 0,2 ) , 计算矩阵Mat的特征值V1,V2,及其对应的特征向量 S 1 = S 1 y S 1 x , S 2 = S 2 y S 2 x ;
(A2.4.4)计算特性视图Fi目标主轴倾斜角Ti4
T i , 4 = a tan 2 ( | S 1 x | , S 1 y ) * 180 / π , V 1 ≥ V 2 , S 1 x ≤ 0 180 - a tan 2 ( | S 1 x | , S 1 y ) * 180 / π , V 1 ≥ V 2 , S 1 x > 0 ;
T i , 4 = a tan 2 ( | S 2 x | , S 2 y ) * 180 / &pi; , V 1 < V 2 , S 1 x &le; 0 180 - a tan 2 ( | S 2 x | , S 2 y ) * 180 / &pi; , V 1 < V 2 , S 1 x > 0 ;
式中,符号π表示圆周率,符号atan2表示反正切函数。
进一步地,还对所述步骤(A2)构建的几何特征库进行归一化处理,对所述步骤(B2)提取的待测图像特征进行归一化处理。
进一步地,所述步骤(A1)根据空间目标三维模型获取表征目标各种姿态的目标多视点特性视图的具体实现方式为;
按俯仰角α每隔角度γ、偏航角β每隔γ将高斯观测球划分为K个二维平面,α=-180°~0°,β=-180°~180°,K=360*180/γ2
将空间目标三维模型OT置于高斯观测球球心,从球心将三维模型OT分别向K个二维平面进行正投影,共得到K个三维模板目标的多视点特性视图Fi;各特性视图Fi为宽度n、高度m的像素矩阵,fi(x,y)为Fi在点(x,y)处像素灰度值,1≤横坐标x≤n,1≤纵坐标y≤m,i=1、2、…、K。
进一步地,所述步骤(B1)首先采用非局部均值滤波对待测图像先进行噪声抑制,再选用最大似然估计算法进行去模糊。
进一步地,所述(B3)的具体实现方式为:
(B3.1)遍历整个几何特征库SMF,计算待测图像的四种几何特征{SG1,SG2,SG3,SG4}与几何特征库SMF中各行向量之间的欧式距离记为D1、…、DK,K为目标多视点特性视图的数量;
(B3.2)从各欧式距离D1、…、DK中选取四个最小值DS、Dt、Du、Dv,对其对应的四个目标姿态求取算术平均,即为待测图像中的目标姿态。
一种在轨三维空间目标姿态估计系统,包括离线特征库构建模块和在线姿态估计模块:
所述离线特征库构建模块,具体包括:
第一子模块,用于根据空间目标三维模型获取表征空间目标各种姿态的目标多视点特性视图;
第二子模块,用于从各空间目标多视点特性视图中提取几何特征构成几何特征库;所述几何特征包含目标主体高宽比Ti,1、目标纵向对称度Ti,2、目标横向对称度Ti,3和目标主轴倾斜角Ti,4;所述目标主体高宽比Ti,1是指目标最小外接矩形的高宽比;所述目标纵向对称度Ti,2是指在目标最小外接矩形所围成的矩形区域内,目标上半部分面积与下半部分面积之比;所述目标横向对称度Ti,3是指在目标最小外接矩形所围成的矩形区域内,目标左半部分面积与右半部分面积之比;所述目标主轴倾斜角Ti,4是指特性视图的目标柱体主轴线与视图水平方向的夹角;
所述在线姿态估计模块,具体包括:
第三子模块,用于对待测在轨空间目标图像预处理;
第四子模块,用于对预处理后的待测图像提取特征,该特征与第二子模块提取的特征相同;
第五子模块,用于将对待测图像提取的特征在几何特征库中进行匹配,匹配结果对应的特性视图所表征的空间目标姿态即为待测图像中的目标姿态。
本发明的技术效果体现在:
本发明步骤(A1)~(A2)为离线训练阶段,利用三维模板目标模型获取目标多视点特性视图,提取特性视图几何特征,进而建立模板目标几何特征库;步骤(B1)~(B2)为待测图像姿态在线估计阶段,将待测图像几何特征与模板目标几何特征库对比,进而估计出待测图像的姿态。本发明匹配所特定使用的几何特征具有尺度不变性,只要在三维建模阶段准确获取目标各部件的相对尺寸比例和位置关系,就可保证后续较高的匹配精度。整个方法实现简单、鲁棒性好、姿态估计精度高,受成像条件影响小,适用性好。
作为优化,对提取的几何特征进行归一化处理,可有效均衡各特征量对姿态估计的影响;对待测图像进行预处理操作,优选非局部均值滤波和最大似然估计算法对待测图像进行去噪、去模糊处理,提高了算法在湍流模糊成像条件下姿态估计精度;对姿态估计结果进行算术加权平均,提高了姿态估计算法的稳定性。
附图说明
图1为姿态估计示意图;
图2为本发明流程示意图;
图3为高斯观测球示意图;
图4为哈勃望远镜三维模型示意图;
图5(a)为哈勃望远镜在俯仰角α=0°、偏航角β=0°情况下投影特性视图;
图5(b)为哈勃望远镜在俯仰角α=0°、偏航角β=90°情况下投影特性视图;
图5(c)为哈勃望远镜在俯仰角α=-90°、偏航角β=90°情况下投影特性视图;
图5(d)为哈勃望远镜在俯仰角α=-180°、偏航角β=90°情况下投影特性视图;
图6(a)为哈勃望远镜某一帧特征视图Fi
图6(b)为对图6(a)使用最大类间方差准则阈值分割结果;
图6(c)为哈勃望远镜目标高宽比示意图,矩形框ABCD为特性视图Fi的最小外接矩形,|AC|为特性视图Fi的目标主体高度Hi,|CD|为特性视图Fi的目标主体宽度Wi
图6(d)为哈勃望远镜目标纵向对称度示意图,矩形框abcd所围成的区域为特性视图Fi的目标上半部分,矩形cdef所围成的区域为特性视图Fi的目标下半部分;
图6(e)为哈勃望远镜目标横向对称度示意图,矩形框hukv所围成的区域为特性视图Fi的目标左半部分,矩形ujvl所围成的区域为特性视图Fi的目标右半部分;
图6(f)为哈勃望远镜目标主轴倾斜角示意图,向量为特性视图Fi的目标柱体主轴线,其与水平方向的夹角∠QOR即为目标主轴倾斜角即哈勃望远镜卫星平台的主轴倾斜角;
图7(a)为仿真的哈勃望远镜图像,其对应的俯仰角α、偏航角度β为(α,β)=(-40°,-125°);
图7(b)为对图7(a)非局部均值滤波结果;
图7(c)为对7(b)最大似然估计算法(MAP)算法校正结果;
图7(d)为对图7(c)姿态估计结果1(α,β)=(-40°,-130°);
图7(e)为对图7(c)姿态估计结果2(α,β)=(-40°,-140°);
图7(f)为对图7(c)姿态估计结果3(α,β)=(-40°,-120°);
图7(g)为对图7(c)为姿态估计结果4(α,β)=(-40°,-150°);
图7(h)为图7(d)~图7(g)算术平均值结果,作为图7(c)最终的姿态估计结果(α,β)=(-40°,-135°)。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明中在轨三维空间目标为在轨哈勃望远镜,其卫星平台结构为圆柱体;卫星平台上主要搭载了两块矩形太阳能帆板,所需估计的目标姿态是指卫星平台在三维目标坐标系下的姿态。如图1所示为姿态估计示意图,地心坐标系中,X轴指向本初子午线,Z轴指向正北,按照右手螺旋法则确定Y轴方向。目标坐标系中,目标卫星质心始终指向地心,Xs轴平行于地心坐标系中的Y轴,Ys轴平行于地心坐标系中的Z轴,姿态估计意在从相机坐标系中的目标卫星投影图像中估计出三维目标卫星在目标坐标系下的俯仰角α,即∠N′OSN、偏航角β即∠N′OSXS;其中,OSN为圆柱体卫星平台轴线;OSN′为卫星平台轴线OSN在平面XSOSYS上的投影;相机平面XmOmYm平行于目标坐标系中的XSOSYS平面,同时也平行于地心坐标系中的YOZ平面。
下面以图4所示目标结构为例对本发明做进一步详细说明。以下结合附图和实施例对本发明进一步说明。
本发明流程如图2所示,具体实施方法包括以下步骤。包括:获取模板目标多视点特性视图步骤、建立模板目标几何特征库步骤、计算待测图像几何特征步骤、目标姿态估计步骤;
(A1)获取模板目标多视点特性视图步骤,包括下述子步骤:
(A1.1)建立模板目标三维模型步骤:
对于合作空间目标,如卫星目标,可精确获得卫星平台、卫星搭载的负荷、以及卫星各部件之间的相对位置关系等详细的三维结构及相对位置关系;对于非合作的空间目标,以从目标的多视点投影图像中推断出目标各部件大致的几何结构及相对位置关系。利用目标卫星在轨道上运行时卫星平台质心与地心连线垂直于卫星平台,其太阳能帆板始终指向太阳光入射方向等先验知识,进一步确定卫星各部件之间的空间位置关系。使用三维建模工具Multigen Creator建立目标卫星三维模型;如图4为使用Multigen Creator建立的哈勃望远镜三维模型示意图;
(A1.2)获取模板目标多视点特性视图步骤:
如图3所示,按俯仰角α每隔γ、偏航角β每隔γ将高斯观测球划分为2592个二维平面,α=-180°~0°,β=-180°~180°,3°<γ<10°,本实例γ=5°;
本发明以哈勃望远镜仿真卫星作为模板目标,如图4所示,将三维模板目标哈勃望远镜OT置于高斯观测球球心,从球心将三维模板目标OT分别向2592个二维平面进行正投影,共得到2592个三维模板目标的多视点特性视图Fi。如图5(a)为仿真的哈勃望远镜俯仰角、偏航角(α,β)=(0°,0°)对应的特性视图;图5(b)为(α,β)=(0°,90°)对应的特性视图;图5(c)为(α,β)=(-90°,90°)对应的特性视图;图5(d)为(α,β)=(-180°,90°)对应的特性视图;各特性视图Fi为宽度n=500、高度m=411的像素矩阵,fi(x,y)为Fi在点(x,y)处像素灰度值,1≤横坐标x≤500,1≤纵坐标y≤411,i=1、2、…、K,K=2592;
(A2)建立模板目标几何特征库步骤,包括下述子步骤:
以2592帧特性视图中的i=1886帧为例说明本实例:
(A2.1)计算各特性视图Fi的目标主体高宽比Ti,1
(A2.1.1)对输入的特性视图Fi如图6(a)所示,其对应的俯仰角、偏航角(α,β)=(-50°,-115°)使用最大类间方差阈值准则,得到阈值Ti=95。将像素矩阵Fi中大于95的像素灰度值fi(x,y)设置为255,小于或等于95的像素灰度值fi(x,y)设置为零,得到二值图像Gi如图6(b)所示,gi(x,y)为像素矩阵Gi在点(x,y)处像素灰度值。
(A2.1.2)对二值图像Gi按照从上往下、从左往右的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Topj、纵坐标y=Topi,停止扫描,本实例中Topj=272,Topi=87。
(A2.1.3)对二值图像Gi按照从下往上、从左往右的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Bntj、纵坐标y=Bnti,停止扫描,本实例中Bntj=330,Bnti=315。
(A2.1.4)对二值图像Gi按照从左往右,从上往下的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Leftj、纵坐标y=Lefti,停止扫描,本实例中Leftj=152,Lefti=139。
(A2.1.5)对二值图像Gi按照从右往左,从上往下的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Rightj、纵坐标y=Righti,停止扫描,本实例中Rightj=361,Righti=282。
(A2.1.6)特性视图Fi的目标主体高宽比定义为目标的高度Hi与目标的宽度Wi的比值Hi=|Topi-Bnti|,Wi=|Leftj-Rightj|,符号|V|表示变量V的绝对值。如图6(c)所示,目标主体高宽比Ti,1为目标主体高度AC与目标主体宽度CD的比值。本实例中Ti,1=1.0909,Hi=228,Wi=209。
(A2.2)计算各特性视图Fi的目标纵向对称度Ti,2
(A2.2.1)计算特性视图Fi的中心点横坐标纵坐标符号表示对变量V取整数部分,本实例中,Cix=256,Ciy=201。
(A2.2.2)统计二值图像Gi中,1≤横坐标x≤500,1≤纵坐标y≤201的区域内,gi(x,y)的灰度值为255的像素点个数,即为特性视图Fi的目标上半部分面积STi。本实例中,即为图6(d)中矩形框abcd所围成的区域面积,STi=10531。
(A2.2.3)统计二值图像Gi中,1≤横坐标x≤500,202≤纵坐标y≤411的区域内,gi(x,y)的灰度值为255的像素点个数,即为特性视图Fi的目标下半部分面积SDi。本实例中,即为图6(d)中矩形框cdef所围成的区域面积,SDi=9685。
(A2.2.4)特性视图Fi的目标纵向对称度
特性视图Fi的目标纵向对称度定义为目标最小外接矩形所围成的矩形区域内,目标上半部分面积STi与下半部分面积SDi之比,本实例中,Ti,2=1.0873。
(A2.3)计算各特性视图Fi的目标横向对称度Ti,3
(A2.3.1)统计二值图像Gi中,1≤横坐标x≤Cix,1≤纵坐标y≤m的区域内,gi(x,y)的灰度值为255的像素点个数,即为特性视图Fi的目标左半部分面积SLi。本实例中,即为图6(e)中矩形框hukv所围成的区域面积,SLi=10062。
(A2.3.2)统计二值图像Gi中,Cix+1≤横坐标x≤n,1≤纵坐标y≤m的区域内,gi(x,y)的灰度值为255的像素点个数,即为特性视图Fi的目标右半部分面积SRi。本实例中,即为图6(e)中矩形框ujvl所围成的区域面积,SRi=10154。
(A2.3.3)计算特性视图Fi的目标横向对称度
特性视图Fi的目标横向对称度定义为目标最小外接矩形所围成的矩形区域内,目标左半部分面积SLi与右半部分面积SRi之比。本实例中Ti,3=0.9909。
(A2.4)计算特性视图Fi的目标主轴倾斜角Ti,4
目标主轴倾斜角定义为特性视图Fi的目标柱体轴线与图像水平方向的夹角θ。该特征最明显地反映了目标的姿态特征,其取值范围为:0°~180°,采用一维浮点数表示。
如图6(f)所示为哈勃望远镜目标主轴倾斜角示意图,向量为特性视图Fi的目标柱体主轴线(本示例中为哈勃望远镜卫星平台主轴线),其与水平方向的夹角∠QOR即为目标主轴倾斜角;
(A2.4.1)计算各特性视图Fi对应的二值图像Gi重心横坐标xi0、纵坐标yi0:本实例中,xi0=252,yi0=212。
(A2.4.2)计算特性视图Fi对应的二值图像Gi的p+q阶中心矩μi(p,q):
(A2.4.3)构建实对称矩阵 Mat = &mu; i ( 2,0 ) , &mu; i ( 1,1 ) &mu; i ( 1,1 ) , &mu; i ( 0,2 ) , 计算矩阵Mat的特征值V1,V2,及其对应的特征向量 S 1 = S 1 y S 1 x , S 2 = S 2 y S 2 x , 本实例中, Mat = 1.3385 &times; 10 10 , - 8.4494 &times; 10 9 - 8.4494 &times; 10 9 , 1.6366 &times; 10 10 , 特征值V1=6.2955×109,V2=2.3455×1010,特征向量 S 1 = - 0.7661 - 0.6427 , S 2 = - 0.6427 0.7661 .
(A2.4.4)使用如下公式计算特性视图Fi,如图6(a)目标主轴倾斜角Ti4
T i , 4 = a tan 2 ( | S 1 x | , S 1 y ) * 180 / &pi; , V 1 &GreaterEqual; V 2 , S 1 x &le; 0 180 - a tan 2 ( | S 1 x | , S 1 y ) * 180 / &pi; , V 1 &GreaterEqual; V 2 , S 1 x > 0 ;
T i , 4 = a tan 2 ( | S 2 x | , S 2 y ) * 180 / &pi; , V 1 < V 2 , S 1 x &le; 0 180 - a tan 2 ( | S 2 x | , S 2 y ) * 180 / &pi; , V 1 < V 2 , S 1 x > 0 ;
式中,符号π表示圆周率,符号atan2表示反正切函数。
本实例中目标主轴倾斜角Ti4=50.005°。
(A2.5)构建模板目标多视点特性视图Fi几何特征库MF:
MF = T 1,1 , T 1,2 , T 1,3 , T 1,4 T 2,1 , T 2,2 , T 2,3 , T 2,4 &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; T i , 1 , T i , 2 , T i , 3 , T i , 4 &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; T K , 1 , T K , 2 , T K , 3 , T K , 4 ,
式中,第i行{Ti,1,Ti,2,Ti,3,Ti,4},表示第i帧特征视图Fi的几何特征;本实例中如图6(a),{Ti,1,Ti,2,Ti,3,Ti,4}={1.0909,1.0873,0.9909,50.005}。
(A2.6)归一化处理步骤:
对于模板目标多视点特性视图Fi几何特征库MF进行归一化处理,得到模板目标归一化几何特征库SMF:
SMF = ST 1,1 , ST 1,2 , ST 1,3 , ST 1,4 ST 2,1 , ST 2,2 , ST 2,3 , ST 2,4 &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; ST i , 1 , ST i , 2 , ST i , 3 , ST i , 4 &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; ST K , 1 , ST K , 2 , ST K , 3 , ST K , 4 ,
式中,Vecj=max{T1,j,T2,j,…Ti,j…,TK,j},i=1、2、…、K,j=1、2、3、4;符号max{V}表示取集合V的最大值。
在线姿态估计步骤,具体为:
(B1)计算待测图像几何特征步骤,包括下述子步骤:
(B1.1)待测图像预处理步骤
空间目标成像数据噪声很大、信噪比低,而且模糊严重。因此在对成像数据进行后续处理之前,必须首先对成像数据进行预处理,即首先对成像数据进行去噪,随后针对成像数据的特点,利用有效的校正算法对空间目标图像进行图像恢复处理。本实例中,选用非局部均值滤波,选用如下参数:相似性窗口大小为5×5,搜索窗口大小为15×15,衰减参数为15)对待测图像先进行噪声抑制,如图7(a)所示为仿真的哈勃望远镜地基长距离光学成像数据,其对应的俯仰角α、偏航角度β为(α,β)=(-40°,-125°)。如图7(b)为对图7(a)使用非局部均值滤波噪声抑制结果;再选用最大似然估计算法,本实例选用如下参数:外循环次数为8次,估计点扩展函数和目标图像的内循环次数都设置为3次)进行去模糊,得到预处理后的图像g(x,y),如图7(c)所示为对图7(b)使用最大似然估计算法去模糊结果,即预处理后的图像g(x,y)。
(B2)待测图像几何特征提取步骤
将预处理后的图像g(x,y)代替fi(x,y),进行子步骤(2.1)~(2.4),得到待测图像几何特征{G1,G2,G3,G4},对几何特征{G1,G2,G3,G4}进行归一化处理,得到待测图像归一化几何特征{SG1,SG2,SG3,SG4}:
SGj=Gj/Vecj,j=1、2、3、4;
(B3)目标姿态估计步骤,包括下述子步骤:
(B3.1)遍历整个模板目标几何特征库SMF,计算待测图像几何特征{SG1,SG2,SG3,SG4}与SMF中各行向量之间的欧式距离D1、…、DK
(B3.2)从各欧式距离D1、…、DK中选取4个最小值DS、Dt、Du、Dv,待测图像的姿态设为DS、Dt、Du、Dv所代表的模式姿态的算术平均值。如图7(d)~图7(g)所示为DS、Dt、Du、Dv所代表的模式姿态,其对应的俯仰角α、偏航角度β分别为(α,β)=(-40°,-130°),(α,β)=(-40°,-140°),(α,β)=(-40°,-120°),(α,β)=(-40°,-150°)。图7(h)为对图7(d)~图7(g)进行算术平均得到的姿态估计结果,(α,β)=(-40°,-135°),即为对图7(a)进行姿态估计的结果。
结果表明俯仰角估计结果的精度误差为零度,偏航角度β估计结果的精度误差为10度。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种在轨三维空间目标姿态估计方法,包括离线特征库构建步骤和在线姿态估计步骤:
所述离线特征库构建步骤,具体为:
(A1)根据空间目标三维模型获取表征空间目标各种姿态的目标多视点特性视图;
(A2)从各空间目标多视点特性视图中提取几何特征构成几何特征库;所述几何特征包含目标主体高宽比Ti,1、目标纵向对称度Ti,2、目标横向对称度Ti,3和目标主轴倾斜角Ti,4;所述目标主体高宽比Ti,1是指目标最小外接矩形的高宽比;所述目标纵向对称度Ti,2是指在目标最小外接矩形所围成的矩形区域内,目标上半部分面积与下半部分面积之比;所述目标横向对称度Ti,3是指在目标最小外接矩形所围成的矩形区域内,目标左半部分面积与右半部分面积之比;所述目标主轴倾斜角Ti,4是指特性视图的目标柱体主轴线与视图水平方向的夹角;
所述在线姿态估计步骤,具体为:
(B1)对待测在轨空间目标图像预处理;
(B2)对预处理后的待测图像提取特征,该特征与步骤(A2)提取的特征相同;
(B3)将对待测图像提取的特征在几何特征库中进行匹配,匹配结果对应的特性视图所表征的空间目标姿态即为待测图像中的目标姿态。
2.根据权利要求1所述的在轨三维空间目标姿态估计方法,其特征在于,所述特征目标主体高宽比Ti,1的提取方式为:
(A2.1.1)对特性视图Fi使用最大类间方差阈值准则得到阈值Ti,将特性视图Fi中大于阈值Ti的像素灰度值fi(x,y)设置为255,小于或等于阈值Ti的像素灰度值fi(x,y)设置为零,由此得到二值图像Gi,Gi为宽度n、高度m的像素矩阵,gi(x,y)为Gi中点(x,y)处像素灰度值;
(A2.1.2)对二值图像Gi按照从上往下、从左往右的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Topj、纵坐标y=Topi,停止扫描;
(A2.1.3)对二值图像Gi按照从下往上、从左往右的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Bntj、纵坐标y=Bnti,停止扫描;
(A2.1.4)对二值图像Gi按照从左往右,从上往下的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Leftj、纵坐标y=Lefti,停止扫描;
(A2.1.5)对二值图像Gi按照从右往左,从上往下的顺序进行扫描,若当前点像素值gi(x,y)等于255,则记录当前像素横坐标x=Rightj、纵坐标y=Righti,停止扫描;
(A2.1.6)特性视图Fi的目标主体高宽比Hi=|Topi-Bnti|,Wi=|Leftj-Rightj|,符号|V|表示变量V的绝对值。
3.根据权利要求2所述的在轨三维空间目标姿态估计方法,其特征在于,所述特征目标纵向对称度Ti,2的提取方式为:
(A2.2.1)计算特性视图Fi的中心点横坐标纵坐标符号表示对变量V取整数部分;
(A2.2.2)统计二值图像Gi中的,1≤横坐标x≤n,1≤纵坐标y≤Ciy的区域内,灰度值为255的像素点个数,即为特性视图Fi的目标上半部分面积STi
(A2.2.3)统计二值图像Gi中,1≤横坐标x≤n,Ciy+1≤纵坐标y≤m的区域内,灰度值为255的像素点个数,即为特性视图Fi的目标下半部分面积SDi
(A2.2.4)计算特性视图Fi的目标纵向对称度
4.根据权利要求3所述的在轨三维空间目标姿态估计方法,其特征在于,所述特征目标横向对称度Ti,3的提取方式为:
(A2.3.1)统计二值图像Gi中,1≤横坐标x≤Cix,1≤纵坐标y≤m的区域内,灰度值为255的像素点个数,即为特性视图Fi的目标左半部分面积SLi
(A2.3.2)统计二值图像Gi中,Cix+1≤横坐标x≤n,1≤纵坐标y≤m的区域内,灰度值为255的像素点个数,即为特性视图Fi的目标右半部分面积SRi
(A2.3.3)计算特性视图Fi的目标横向对称度
5.根据权利要求4所述的在轨三维空间目标姿态估计方法,其特征在于,所述特征目标主轴倾斜角Ti,4的提取方式为:
(A2.4.1)计算特性视图Fi对应的二值图像Gi重心横坐标xi0、纵坐标yi0
x i 0 = M i ( 1,0 ) / M i ( 0,0 ) y i 0 = M i ( 0,1 ) / M i ( 0,0 ) ,
式中, M i ( k , j ) = &Sigma; x = 1 n &Sigma; y = 1 m x k y j f i ( x , y ) , k = 0,1 , j = 0,1 ;
(A2.4.2)计算特性视图Fi对应的二值图像Gi对应的p+q阶中心矩μi(p,q):
&mu; i ( p , q ) = &Sigma; x = 1 n &Sigma; y = 1 m ( x - x i 0 ) p ( y - y i 0 ) q g i ( x , y ) , p = 0,1,2 , q = 0,1,2 ;
(A2.4.3)构建实对称矩阵 Mat = &mu; i ( 2,0 ) , &mu; i ( 1,1 ) &mu; i ( 1,1 ) , &mu; i ( 0,2 ) , 计算矩阵Mat的特征值V1,V2,及其对应的特征向量 S 1 = S 1 y S 1 x , S 2 = S 2 y S 2 x ;
(A2.4.4)计算特性视图Fi目标主轴倾斜角Ti4
T i , 4 = a tan 2 ( | S 1 x | , S 1 y ) * 180 / &pi; , V 1 &GreaterEqual; V 2 , S 1 x &le; 0 180 - a tan 2 ( | S 1 x | , S 1 y ) * 180 / &pi; , V 1 &GreaterEqual; V 2 , S 1 x > 0 ;
T i , 4 = a tan 2 ( | S 2 x | , S 2 y ) * 180 / &pi; , V 1 < V 2 , S 1 x &le; 0 180 - a tan 2 ( | S 2 x | , S 2 y ) * 180 / &pi; , V 1 < V 2 , S 1 x > 0 ;
式中,符号π表示圆周率,符号atan2表示反正切函数。
6.根据权利要求1~4任意一项所述的在轨三维空间目标姿态估计方法,其特征在于,还对所述步骤(A2)构建的几何特征库进行归一化处理,对所述步骤(B2)提取的待测图像特征进行归一化处理。
7.根据权利要求1~4任意一项所述的在轨三维空间目标姿态估计方法,所述步骤(A1)根据空间目标三维模型获取表征目标各种姿态的目标多视点特性视图的具体实现方式为;
按俯仰角α每隔角度γ、偏航角β每隔γ将高斯观测球划分为K个二维平面,α=-180°~0°,β=-180°~180°,K=360*180/γ2
将空间目标三维模型OT置于高斯观测球球心,从球心将三维模型OT分别向K个二维平面进行正投影,共得到K个三维模板目标的多视点特性视图Fi;各特性视图Fi为宽度n、高度m的像素矩阵,fi(x,y)为Fi在点(x,y)处像素灰度值,1≤横坐标x≤n,1≤纵坐标y≤m,i=1、2、…、K。
8.根据权利要求1~4任意一项所述的在轨三维空间目标姿态估计方法,所述步骤(B1)首先采用非局部均值滤波对待测图像先进行噪声抑制,再选用最大似然估计算法进行去模糊。
9.根据权利要求1~4任意一项所述的在轨三维空间目标姿态估计方法,所述(B3)的具体实现方式为:
(B3.1)遍历整个几何特征库SMF,计算待测图像的四种几何特征{SG1,SG2,SG3,SG4}与几何特征库SMF中各行向量之间的欧式距离记为D1、…、DK,K为目标多视点特性视图的数量;
(B3.2)从各欧式距离D1、…、DK中选取四个最小值DS、Dt、Du、Dv,对其对应的四个目标姿态求取算术平均,即为待测图像中的目标姿态。
10.一种在轨三维空间目标姿态估计系统,包括离线特征库构建模块和在线姿态估计模块:
所述离线特征库构建模块,具体包括:
第一子模块,用于根据空间目标三维模型获取表征空间目标各种姿态的目标多视点特性视图;
第二子模块,用于从各空间目标多视点特性视图中提取几何特征构成几何特征库;所述几何特征包含目标主体高宽比Ti,1、目标纵向对称度Ti,2、目标横向对称度Ti,3和目标主轴倾斜角Ti,4;所述目标主体高宽比Ti,1是指目标最小外接矩形的高宽比;所述目标纵向对称度Ti,2是指在目标最小外接矩形所围成的矩形区域内,目标上半部分面积与下半部分面积之比;所述目标横向对称度Ti,3是指在目标最小外接矩形所围成的矩形区域内,目标左半部分面积与右半部分面积之比;所述目标主轴倾斜角Ti,4是指特性视图的目标柱体主轴线与视图水平方向的夹角;
所述在线姿态估计模块,具体包括:
第三子模块,用于对待测在轨空间目标图像预处理;
第四子模块,用于对预处理后的待测图像提取特征,该特征与第二子模块提取的特征相同;
第五子模块,用于将对待测图像提取的特征在几何特征库中进行匹配,匹配结果对应的特性视图所表征的空间目标姿态即为待测图像中的目标姿态。
CN201310740553.6A 2013-12-28 2013-12-28 一种模型约束下的在轨三维空间目标姿态估计方法及系统 Active CN104748750B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201310740553.6A CN104748750B (zh) 2013-12-28 2013-12-28 一种模型约束下的在轨三维空间目标姿态估计方法及系统
US15/106,690 US20170008650A1 (en) 2013-12-28 2014-09-02 Attitude estimation method and system for on-orbit three-dimensional space object under model restraint
PCT/CN2014/085717 WO2015096508A1 (zh) 2013-12-28 2014-09-02 一种模型约束下的在轨三维空间目标姿态估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310740553.6A CN104748750B (zh) 2013-12-28 2013-12-28 一种模型约束下的在轨三维空间目标姿态估计方法及系统

Publications (2)

Publication Number Publication Date
CN104748750A true CN104748750A (zh) 2015-07-01
CN104748750B CN104748750B (zh) 2015-12-02

Family

ID=53477486

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310740553.6A Active CN104748750B (zh) 2013-12-28 2013-12-28 一种模型约束下的在轨三维空间目标姿态估计方法及系统

Country Status (3)

Country Link
US (1) US20170008650A1 (zh)
CN (1) CN104748750B (zh)
WO (1) WO2015096508A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105345453A (zh) * 2015-11-30 2016-02-24 北京卫星制造厂 一种基于工业机器人自动化装调的位姿确定方法
CN108319567A (zh) * 2018-02-05 2018-07-24 北京航空航天大学 一种基于高斯过程的空间目标姿态估计不确定度计算方法
CN108320310A (zh) * 2018-02-06 2018-07-24 哈尔滨工业大学 基于图像序列的空间目标三维姿态估计方法
CN108680165A (zh) * 2018-05-04 2018-10-19 中国人民解放军63920部队 基于光学图像的目标飞行器姿态确定方法和装置
CN108873917A (zh) * 2018-07-05 2018-11-23 太原理工大学 一种面向移动平台的无人机自主着陆控制系统及方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102170841B1 (ko) * 2014-05-22 2020-10-27 뉴라이언 홀딩스 리미티드 핸드헬드 기화 디바이스
JP2018502770A (ja) * 2015-01-20 2018-02-01 ポリテクニコ ディ トリノ 宇宙において周回している物体の角速度を測定するための方法およびシステム
US9940504B2 (en) * 2015-06-17 2018-04-10 Itseez3D, Inc. Method to produce consistent face texture
CN108109208B (zh) * 2017-12-01 2022-02-08 同济大学 一种海上风电场增强现实方法
CN107958466B (zh) * 2017-12-01 2022-03-29 大唐国信滨海海上风力发电有限公司 一种Slam算法优化基于模型的跟踪方法
CN108408087B (zh) * 2018-02-12 2019-07-16 北京空间技术研制试验中心 低轨长寿命载人航天器的在轨测试方法
US11873123B2 (en) * 2020-01-05 2024-01-16 United States Of America As Represented By The Secretary Of The Air Force Aerospace vehicle navigation and control system comprising terrestrial illumination matching module for determining aerospace vehicle position and attitude
CN111522007A (zh) * 2020-07-06 2020-08-11 航天宏图信息技术股份有限公司 真实场景与目标仿真融合的sar成像仿真方法和系统
CN111932620B (zh) * 2020-07-27 2024-01-12 根尖体育科技(北京)有限公司 排球发球过网与否的判定方法及发球速度的获取方法
CN112378383B (zh) * 2020-10-22 2021-10-19 北京航空航天大学 基于圆和线特征非合作目标相对位姿双目视觉测量方法
CN112509038B (zh) * 2020-12-15 2023-08-22 华南理工大学 结合视觉仿真的自适应图像模板截取方法、系统及存储介质
CN112634326A (zh) * 2020-12-17 2021-04-09 深圳云天励飞技术股份有限公司 目标跟踪方法、装置、电子设备及存储介质
CN112651437B (zh) * 2020-12-24 2022-11-11 北京理工大学 一种基于深度学习的空间非合作目标位姿估计方法
CN114693988B (zh) * 2020-12-31 2024-05-03 上海湃星信息科技有限公司 卫星自主位姿的判定方法、系统及存储介质
CN112683265B (zh) * 2021-01-20 2023-03-24 中国人民解放军火箭军工程大学 一种基于快速iss集员滤波的mimu/gps组合导航方法
CN113470113B (zh) * 2021-08-13 2023-07-21 西南科技大学 一种融合brief特征匹配与icp点云配准的零部件姿态估计方法
CN115994942B (zh) * 2023-03-23 2023-06-27 武汉大势智慧科技有限公司 三维模型的对称提取方法、装置、设备及存储介质
CN116109706B (zh) * 2023-04-13 2023-06-23 中国人民解放军国防科技大学 基于先验几何约束的空间目标反演方法、装置和设备
CN116385440B (zh) * 2023-06-05 2023-08-11 山东聚宁机械有限公司 一种弧形刀片视觉检测方法
CN118072191A (zh) * 2024-03-20 2024-05-24 南昌工程学院 一种基于透视n点几何算法的卫星位姿实时估计方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101033972A (zh) * 2007-02-06 2007-09-12 华中科技大学 一种空间非合作物体三维信息的获取方法
WO2008073962A2 (en) * 2006-12-12 2008-06-19 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
CN101650178A (zh) * 2009-09-09 2010-02-17 中国人民解放军国防科学技术大学 序列图像三维重建中控制特征点与最优局部单应引导的图像匹配方法
CN101726298A (zh) * 2009-12-18 2010-06-09 华中科技大学 一种用于前视导航制导的立体地标选择和参考图制备方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3412973B2 (ja) * 1995-07-21 2003-06-03 株式会社東芝 Isar画像目標識別処理装置
US7230221B2 (en) * 2005-03-02 2007-06-12 United States Of America As Represented By The Secretary Of The Navy Portable air defense ground based launch detection system
US20070285304A1 (en) * 2006-03-16 2007-12-13 Guy Cooper Target orbit modification via gas-blast
FR2899344B1 (fr) * 2006-04-03 2008-08-15 Eads Astrium Sas Soc Par Actio Procede de restitution de mouvements de la ligne de visee d'un instrument optique
US8041118B2 (en) * 2007-02-16 2011-10-18 The Boeing Company Pattern recognition filters for digital images
CN101989326B (zh) * 2009-07-31 2015-04-01 三星电子株式会社 人体姿态识别方法和装置
US8240611B2 (en) * 2009-08-26 2012-08-14 Raytheon Company Retro-geo spinning satellite utilizing time delay integration (TDI) for geosynchronous surveillance
EP2385483B1 (en) * 2010-05-07 2012-11-21 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform
CN102324043B (zh) * 2011-09-07 2013-12-18 北京邮电大学 基于dct的特征描述算子及优化空间量化的图像匹配方法
CN102298649B (zh) * 2011-10-09 2012-11-28 南京大学 一种人体动作数据的空间轨迹检索方法
FR2991785B1 (fr) * 2012-06-06 2014-07-18 Astrium Sas Stabilisation d'une ligne de visee d'un systeme d'imagerie embarque a bord d'un satellite
JP6044293B2 (ja) * 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008073962A2 (en) * 2006-12-12 2008-06-19 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
CN101033972A (zh) * 2007-02-06 2007-09-12 华中科技大学 一种空间非合作物体三维信息的获取方法
CN101650178A (zh) * 2009-09-09 2010-02-17 中国人民解放军国防科学技术大学 序列图像三维重建中控制特征点与最优局部单应引导的图像匹配方法
CN101726298A (zh) * 2009-12-18 2010-06-09 华中科技大学 一种用于前视导航制导的立体地标选择和参考图制备方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张天序: "三维运动目标的多尺度智能递推识别新方法", 《自动化学报》, vol. 32, no. 5, 30 September 2006 (2006-09-30) *
彭辉等: "基于Zernike矩的三维目标多视点特性视图建模", 《红外与激光工程》, vol. 34, no. 3, 30 June 2005 (2005-06-30) *
杨效余等: "一种基于复杂地物背景图像的目标识别方法", 《系统工程与电子技术》, vol. 33, no. 1, 31 January 2011 (2011-01-31) *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105345453A (zh) * 2015-11-30 2016-02-24 北京卫星制造厂 一种基于工业机器人自动化装调的位姿确定方法
CN108319567A (zh) * 2018-02-05 2018-07-24 北京航空航天大学 一种基于高斯过程的空间目标姿态估计不确定度计算方法
CN108320310A (zh) * 2018-02-06 2018-07-24 哈尔滨工业大学 基于图像序列的空间目标三维姿态估计方法
CN108320310B (zh) * 2018-02-06 2021-09-28 哈尔滨工业大学 基于图像序列的空间目标三维姿态估计方法
CN108680165A (zh) * 2018-05-04 2018-10-19 中国人民解放军63920部队 基于光学图像的目标飞行器姿态确定方法和装置
CN108680165B (zh) * 2018-05-04 2020-11-27 中国人民解放军63920部队 基于光学图像的目标飞行器姿态确定方法和装置
CN108873917A (zh) * 2018-07-05 2018-11-23 太原理工大学 一种面向移动平台的无人机自主着陆控制系统及方法

Also Published As

Publication number Publication date
WO2015096508A1 (zh) 2015-07-02
CN104748750B (zh) 2015-12-02
US20170008650A1 (en) 2017-01-12

Similar Documents

Publication Publication Date Title
CN104748750B (zh) 一种模型约束下的在轨三维空间目标姿态估计方法及系统
Merkle et al. Exploring the potential of conditional adversarial networks for optical and SAR image matching
Sharma Comparative assessment of techniques for initial pose estimation using monocular vision
Fathi et al. Automated sparse 3D point cloud generation of infrastructure using its distinctive visual features
CN102435188B (zh) 一种用于室内环境的单目视觉/惯性全自主导航方法
Liu et al. Robust and efficient relative pose with a multi-camera system for autonomous driving in highly dynamic environments
US8081798B2 (en) Method and system for detecting polygon boundaries of structures in images as particle tracks through fields of corners and pixel gradients
US20130148900A1 (en) Pose Estimation
You et al. An accurate and practical calibration method for roadside camera using two vanishing points
CN107833249A (zh) 一种基于视觉引导的舰载机着陆过程姿态预估方法
CN108917753B (zh) 基于从运动恢复结构的飞行器位置确定方法
CN103177444A (zh) 一种sar图像自动配准方法
CN109708643B (zh) 小行星表面光学导航路标评价选取方法
Kumari et al. Adjustment of systematic errors in ALS data through surface matching
Dimitrievski et al. Robust matching of occupancy maps for odometry in autonomous vehicles
JP2023530449A (ja) 空中と地上の位置合わせのためのシステムおよび方法
US20230086983A1 (en) Method for acquiring distance from moving body to at least one object located in any direction of moving body by utilizing camera-view depth map and image processing device using the same
CN112906573B (zh) 基于轮廓点集的行星表面导航路标匹配方法
Goldman et al. Robust epipolar geometry estimation using noisy pose priors
Jiang et al. Icp stereo visual odometry for wheeled vehicles based on a 1dof motion prior
Qing et al. Weighted total least squares for the visual localization of a planetary rover
Wan et al. The P2L method of mismatch detection for push broom high-resolution satellite images
Yan et al. Horizontal velocity estimation via downward looking descent images for lunar landing
Brink Stereo vision for simultaneous localization and mapping
Kupervasser et al. Robust positioning of drones for land use monitoring in strong terrain relief using vision-based navigation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant