[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN110889353B - 基于主焦点大视场光电望远镜的空间目标识别方法 - Google Patents

基于主焦点大视场光电望远镜的空间目标识别方法 Download PDF

Info

Publication number
CN110889353B
CN110889353B CN201911130890.7A CN201911130890A CN110889353B CN 110889353 B CN110889353 B CN 110889353B CN 201911130890 A CN201911130890 A CN 201911130890A CN 110889353 B CN110889353 B CN 110889353B
Authority
CN
China
Prior art keywords
target
image
telescope
star
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911130890.7A
Other languages
English (en)
Other versions
CN110889353A (zh
Inventor
杨文波
刘德龙
李振伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHANGCHUN OBSERVATORY NATIONAL ASTRONOMICAL OBSERVATORIES CAS
Original Assignee
CHANGCHUN OBSERVATORY NATIONAL ASTRONOMICAL OBSERVATORIES CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHANGCHUN OBSERVATORY NATIONAL ASTRONOMICAL OBSERVATORIES CAS filed Critical CHANGCHUN OBSERVATORY NATIONAL ASTRONOMICAL OBSERVATORIES CAS
Priority to CN201911130890.7A priority Critical patent/CN110889353B/zh
Publication of CN110889353A publication Critical patent/CN110889353A/zh
Application granted granted Critical
Publication of CN110889353B publication Critical patent/CN110889353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

基于主焦点大视场光电望远镜的空间目标识别方法,涉及星图识别技术领域,解决现有空间目标识别方法在空间目标识别过程中,采用闭环跟踪方式难以应对巨大的实时数据量,难以满足实时性要求,存在闭环跟踪困难,使主视场不能长时间的对空间目标进行观测,无法识别出空间目标等问题,本发明针对主焦点大视场光电望远镜的空间目标识别方法,可以自动高效的识别空间目标,进一步完善和发展目标识别在天体测量领域的能力应用,同时为探索点源目标识别与跟踪技术提供新的思路和理论基础。本发明可用于对长春人卫站40cm精密测量型地基光电望远镜的改造,提高系统的观测自动化程度,实现系统无人值守的观测运行模式。具有重要的实际应用价值。

Description

基于主焦点大视场光电望远镜的空间目标识别方法
技术领域
本发明涉及一种基于主焦点大视场光电望远镜的空间目标识别方法。
背景技术
主焦点大视场光电望远镜属于地基光电望远镜,它具备强光力的特点,在主焦点处安装大靶面高性能天文相机,可对暗弱小的空间目标进行观测并定位。
望远镜的视场越大,聚光的能力越强,对空间目标搜索和跟踪越有利。因此,空间目标的天文定位和弧长均会增加,轨道关联的任务也会减轻。
由于主焦点大视场光电望远镜的观测视场大,并且需要通过增加曝光时间提高对暗弱目标的探测能力,因此在观测到空间目标的同时,也会引入大量恒星星象的干扰。因此,如何从众多星象中识别出空间目标是天文定位的关键问题。
目前主要有以下几种空间目标检测方法:
1.掩码方法。该方法利用实际观测图像减去带有掩码的恒星参考帧图像,从残留的星像中即可检测出空间目标。
2.形态识别。当采用长曝光时间(通常在数秒以上)的策略来观测GEO空间目标时,空间目标的星像呈点状,背景恒星的星象则被拉成长条状;因此,参考曝光时间,将星象长宽比作为判据,可实现对目标的检测。
3.统计量识别。由于GEO的空间目标和背景恒星由于几何形态上的差异,导致它们的转动惯量也不同,因此引入主惯性矩之比作为检测依据,标记可能的空间目标。
4.数学形态学方法。数学形态学建立在集合论基础之上,其本质在于使用一定形态的结构元素度量和提取图像中对应的几何形状,达到分析和识别图像的目的。
5.叠加方法。该方法主要用于对暗弱的GEO目标检测,尤其是空间碎片。由于GEO目标在观测时相对测站静止,在序列图像中位置变化很小,而背景恒星存在周日视运动,在序列图像中的位置发生改变。
但由于主焦点大视场光电望远镜的观测视场大,并且空间目标与恒星距离较远,空间目标仅占少量的像素,形态特征大大弱化,细节特征基本缺失,难以利用方法2,方法3,方法4和方法5识别空间目标。另外,由于望远镜探测能力强,会引入大量恒星星象,也难以利用方法1实现空间目标的识别。
综上所述,若实现对主焦点大视场空间目标识别,要求识别概率高,虚警率小,必须要提取具有良好描述的目标特征,以及实现目标特征的精确计算。
空间目标光学观测与一般天文观测的最大不同在于,观测对象相对于背景恒星在快速移动。因此,望远镜需要用目标跟踪的模式进行观测。空间目标的跟踪可分为闭环跟踪和开环跟踪两种方式。
闭环跟踪是在跟踪期间实时地利用图像数据调整望远镜运动的跟踪方式。但随着相机技术的发展,图像数据越来越大,传统的基于WINDOWS的图像采集和处理系统难以应对巨大的实时数据量,难以满足实时性要求,闭环跟踪困难,使主视场不能长时间的对空间目标进行观测。
开环跟踪是在整个跟踪期间只利用预报数据引导望远镜运动的跟踪模式。目前已编目的空间目标预报精度已足够支持开环跟踪。相对于闭环跟踪模式,开环跟踪可以使望远镜运动控制与图像数据处理分开实现,其抗干扰能力强,容易实现稳健的跟踪,提供质量更稳定的天文定位数据。
由于主焦点大视场光电望远镜的观测视场大,再加上空间目标预报精度已足够支持开环跟踪。因此,在主焦点大视场光电望远镜上采用开环跟踪的方式对空间目标进行观测,空间目标一定会出现在视场内。进而,望远镜运动控制与图像数据处理(即空间目标的天文定位)也可以成为独立的处理单元。也就是说,图像数据处理没有实时性要求,可耗费一定时间事后处理。
综上,对于主焦点大视场光电望远镜采用开环跟踪方式对目标进行观测,空间目标的识别可以没有实时要求,可事后进行处理。基于这一原则,设计了针对主焦点大视场光电望远镜的空间目标识别方法。
发明内容
本发明为解决现有空间目标识别方法在空间目标识别过程中,采用闭环跟踪方式难以应对巨大的实时数据量,难以满足实时性要求,存在闭环跟踪困难,使主视场不能长时间的对空间目标进行观测,无法识别出空间目标等问题,提供一种基于主焦点大视场光电望远镜的空间目标识别方法。
基于主焦点大视场光电望远镜的空间目标识别方法,该方法由以下步骤实现:
步骤一、采用程序跟踪的方式引导望远镜进行观测,获得观测图像;
步骤二、将步骤一获得的观测图像输入图像处理模块进行处理后,获得星象的质心坐标,并将所述星象的质心坐标输入到图像分析模块;
步骤三、所述图像分析模块根据步骤二获得星象的质心坐标,采用计算相邻星象间的距离,建立可疑目标列表和疑似目标点位的关联三个步骤,识别出空间目标的星象坐标;具体过程为:
步骤三一、计算相邻星象间距离;
针对第t帧观测图像,选择相邻的第t-1帧观测图像;
设定
Figure BDA0002278248540000031
为第t帧观测图像上星象的质心坐标;
Figure BDA0002278248540000032
为第t-1帧观测图像上星象的质心坐标;则第t帧与第t-1帧观测图像上所有星象间的距离用下式表示为:
Figure BDA0002278248540000033
所述Kt,t-1值为第t帧与第t-1帧观测图像的星象的运动值;
步骤三二、建立可疑目标列表;
将步骤三一中获得的第t帧与第t-1帧观测图像的星象的运动值Kt,t-1按照从小到大排列,选取前五个值建立可疑目标列表集合;
步骤三三、采用基于划分的聚类算法,根据步骤三二建立的可疑目标列表,对疑似目标点位进行关联,最终识别出空间目标;具体过程为:
空间中数据对象与聚类中心间的欧式距离计算公式为:
Figure BDA0002278248540000034
式中,a为数据对象;Cp为第p个聚类中心;m为数据对象的维度;aq,Cpq分别为a和Cp的第q个属性值;在对应的可疑目标列表中,星象坐标对应数据对象a,第p个可疑目标列表对应第p个聚类中心Cp
误差平方和SSE计算公式为:
Figure BDA0002278248540000041
式中,h为簇的个数,即为可疑目标列表中疑似目标的个数,即为目标列表的行数;最小误差平方和SSE所对应的疑似目标点坐标集合就是空间目标的航迹;
对所述疑似目标点位关联的具体过程为:计算第p+1个可疑目标列表的数据对象与第p个可疑目标列表的聚类中心Cp的欧氏距离,并将数据对象分配到聚类中心Ci所对应的簇中;然后进行下一次的迭代,直到处理完全部的可疑目标列表;最后计算误差平方和SSE,找到最小的误差平方和SSE,最小误差平方和SSE所对应的疑似目标点坐标集合即为空间目标的航迹。
本发明的有益效果:
本发明设计的针对主焦点大视场光电望远镜的空间目标识别方法,可以自动高效的识别空间目标,它将进一步完善和发展目标识别在天体测量领域的能力应用,同时为探索点源目标识别与跟踪技术提供新的思路和理论基础。本发明将会对长春人卫站的1.2m大视场级空间碎片光电望远镜(它主要用来对MEO和GEO的空间碎片进行精密定轨)提供技术支撑为其自动化观测打下坚实的基础。本发明可用于对长春人卫站40cm精密测量型地基光电望远镜的改造,提高系统的观测自动化程度,实现系统无人值守的观测运行模式。同时,项目的完成也将对精密测量型地基光电望远镜的观测自动化改造提供有益的借鉴,具有重要的实际应用价值。
附图说明
图1为本发明所述的基于主焦点大视场光电望远镜的空间目标识别方法中,伺服系统对望远镜方位控制和高度控制的原理框图;
图2为本发明所述的基于主焦点大视场光电望远镜的空间目标识别方法中,图像处理和图像分析的流程图;
图3为本发明所述的基于主焦点大视场光电望远镜的空间目标识别方法中,航迹关联算法的流程图;
图4为采用本发明方法获得目标33105的天文定位数据与其CPF星历数据外符精度的对比效果图。
具体实施方式
具体实施方式一、结合图1至图3说明本实施方式,基于主焦点大视场光电望远镜的空间目标识别方法,该方法中包括望远镜伺服状态的外推以及图像处理和分析。由以下步骤实现:
一、望远镜伺服状态的外推;
由于预知空间目标过境时的角度和时间的编目信息,因此可以采用程序跟踪方式(即开环跟踪方式)来引导望远镜进行观测。
所谓程序跟踪方首先由预报软件利用两行根数计算出望远镜对准空间目标所需的方位角和高度角数据,然后这些数据载到望远镜的伺服平台上,驱动望远镜运动。
对于近地轨道的空间目标,预报软件解算出的方位角和高度角数据的时间间隔一般是1s。对于中高轨道的空间目标,则是60s。
为了能够捕捉卫星进入到望远镜视场,导引望远镜跟踪所需要引导数据的时间间隔是几十毫秒,对于主焦点大视场望远镜而言,由于其视场较大,因此,引导数据的时间间隔可以设置为40ms。
因此,控制软件需要采用插值算,法将引导数据加密到25Hz,然后加载到望远镜电机的伺服系统上,以保证能够捕捉卫星进入到望远镜视场。
内插计算是使用测站轨道预报进行内插生成实时跟踪预报,它通常采用的是9阶Lagrange内插公式,Lagrange插值基函数为:
Figure BDA0002278248540000051
Lagrange插值多项式为:
Figure BDA0002278248540000052
式中,n为阶数,xk为预报中的历元时刻,yk为历元时刻对应的位置状态量(方位量和高度量),x是获取的当前观测时刻,Ln(x)为x所对应的状态量。
通过Lagrange插值方法内插出所需时刻的位置状态量,对位置状态量作一阶差分求速度:
Figure BDA0002278248540000061
对状态量得速度矢量作一阶差分得到状态量的加速度:
Figure BDA0002278248540000062
精密星历定位精度较高,差分误差可以忽略不计。
按照每40毫秒一次,计算位置状态量和状态量的速度以及状态量的加速度,计算完成后,将它们输出到电机的伺服系统,使望远镜精确的跟踪目标。
伺服驱动系统又称之为随动系统,是望远镜系统的重要组成部分,主要用于控制望远镜的转动。伺服控制系统分为方位和俯仰两个独立的部分,主要由运动控制器、驱动器、力矩电机和光栅编码器等构成。
伺服驱动系统由位置环、速度环和电流环组成。系统通过引进状态量的速度前馈赋给电机一个基本速度。当目标速度变化不大时,位置指令数值与编码器反馈输入的差值只起对基本速度的微调作用,可以把跟踪误差将至最小。而加速度前馈的应用不仅大大降低外界冲击对系统的影响,还能起到压缩机械谐振的作用。伺服系统对望远镜方位控制原理与对高度的控制原理相同,如图1所示。
总之,系统通过引进状态量的速度及加速度目的就是使望远镜具备出色的动态跟踪性能,可以对目标进行高精度的跟踪。
二、图像处理;
高精度望远镜伺服状态的外推是空间目标识别的基础。图像处理和分析包括图像处理模块和图像分析模块。
所述图像处理模块的输入是观测图像,经过显著性增强,二值化处理,闭运算膨胀图像,星象的轮廓提取及星象质心计算五个步骤后,求出星象的质心坐标(像素位置),并将星象的质心坐标输入到图像分析模块。
三、图像分析;
所述图像分析模块主要功能是从得到的星象质心坐标中识别出空间目标的星象坐标。它分为三个步骤,分别为相邻帧星象间距离计算和可疑目标列表建立及疑似目标点位的关联。
图像处理和图像分析的算法流程图如图2所示。
1、相邻帧所有星象间的距离计算;
对于第k帧观测图像,选择相邻的第k-1帧观测图像,设
Figure BDA0002278248540000071
为第t帧观测图像上星象的质心坐标;
Figure BDA0002278248540000072
为第t-1帧观测图像上星象的质心坐标;则第t帧与第t-1帧图像上所有星象间的距离可表示为:
Figure BDA0002278248540000073
Kt,t-1值反映了第t帧与第t-1帧图像的星象的运动值。
因为观测目的属于精密跟踪测量,所以空间目标的方位角和高度角和望远镜光轴的方位角和高度角的变化,在理论上是相同的。因此,前后两帧观测图像的空间目标的运动值
Figure BDA0002278248540000074
与两帧观测图像上星象的运动值Kt,t-1相比,理论上是最小的。
虽然,前后两帧观测图像的空间目标的运动值
Figure BDA0002278248540000075
在理论上是最小的,但是,会有其他星点干扰,例如,图像处理算法可能会产生干扰星点,导致空间目标
Figure BDA0002278248540000076
值不一定是最小的,不能保证正确识别目标。为此,引入了一个可疑目标列表,来筛选Kt,t-1值排序前几的目标,找到真目标。
2、可疑目标列表的建立;
由于平均每幅观测图像有数量众多的恒星星象,导致Kt,t-1值也数量众多,为此,将Kt,t-1按大小排列,选取前5个值建立可疑目标列表,表的格式如下所示。
表1可疑目标列表
Figure BDA0002278248540000077
可疑目标列表存储着Kt,t-1值排序的目标信息。这些目标中包含目标,星象及干扰,随着每帧图像处理的进行,具有相同坐标的星象出现次数逐渐增加,因此,它成为目标的几率也逐渐正加。处理的帧数越多,目标识别越准确。下表具体显示了利用多个可疑目标列表识别空间目标的过程。
表2利用多个可疑目标列表识别空间目标的过程
NO 坐标 K 列表1
1 2047.13 2156.78 0.0042
NO 坐标 K 列表2
1 2047.13 2156.78 0.0046
NO 坐标 K 列表3
2 2047.13 2156.78 0.0156
NO 坐标 K 列表4
3 2047.13 2156.78 0.0972
 
由表2可以看出,坐标[2047.132156.78]在列表1和列表2中是第1顺位,但在列表3和列表4中,因K值的排序被干扰,目标已经降至第2,第3顺位,在列表3和列表4中不能认定它一定是目标。但统计列表1、列表2、列表3和列表4中坐标[2047.13 2156.78]出现了4次,因此,则可以确定它是目标。
可疑目标列表法识别目标的特点是,处理的帧数越多,目标识别越准确。
3、疑似目标点位的关联;
尽管采用可疑目标列表机制,找到疑似目标,但出现在每个可疑目标列表中的疑似目标点位(图像坐标)并不一定相同,因此,需要对疑似目标点位进行关联,以识别空间目标。
疑似目标点位的关联,采用基于划分的聚类算法,它一般用欧式距离作为衡量数据对象间相似度的指标,相似度与数据对象间的距离成反比,相似度越大,距离越小。
空间中数据对象与聚类中心间的欧式距离计算公式为:
Figure BDA0002278248540000081
式中,a为数据对象;Cp为第p个聚类中心;m为数据对象的维度;aq,Cpq分别为a和Cp的第q个属性值;在对应的可疑目标列表中,星象坐标即为数据对象a,第p个可疑目标列表即对应第p个聚类中心Cp
误差平方和SSE计算公式为:
Figure BDA0002278248540000091
式中,h为簇的个数,即为可疑目标列表中疑似目标的个数,即为目标列表的行数;最小误差平方和SSE所对应的疑似目标点坐标集合就是空间目标的航迹;
结合图3说明本实施方式,对所述疑似目标点位关联的具体过程为:计算第p+1个可疑目标列表的数据对象与第p个可疑目标列表的聚类中心Cp的欧氏距离,并将数据对象分配到聚类中心Cp所对应的簇中;然后进行下一次的迭代,直到处理完全部的可疑目标列表;最后计算误差平方和SSE,找到最小的误差平方和SSE,最小误差平方和SSE所对应的疑似目标点坐标集合即为空间目标的航迹。
具体实施方式二、结合图4说明本实施方式,本实施方式为具体实施方式一所述的基于主焦点大视场光电望远镜的空间目标识别方法的实施例:
望远镜平台:1.2米主焦点大视场光电望远镜;
目标编号:33105;
观测时间:2019年1月17日;
数据构成:共24帧数据;
计算结果:24帧图像全部识别到空间目标。
本实施方式中,目标编号33105为JASON2卫星,该卫星是法国国家空间研究中心和美国国家航天局联合研制的海洋地形卫星,近地点高度1305km,远地点高度1317km,轨道倾角66.04°。由于这颗卫星为激光星,因此,可以对识别到的空间目标进行天文定位,并将数据与CPF(consolidated prediction format)星历的数据进行外符精度分析,以确定识别到的目标是否正确。
由图4可以看出,赤经(Ra)中最大误差为7.2″,赤纬(Dec)中误差为7.6″,可以证明,识别到空间目标应是JASON2卫星。

Claims (4)

1.基于主焦点大视场光电望远镜的空间目标识别方法,其特征是:该方法由以下步骤实现:
步骤一、采用程序跟踪的方式引导望远镜进行观测,获得观测图像;
步骤二、将步骤一获得的观测图像输入图像处理模块进行处理后,获得星象的质心坐标,并将所述星象的质心坐标输入到图像分析模块;
步骤三、所述图像分析模块根据步骤二获得星象的质心坐标,采用计算相邻星象间的距离,建立可疑目标列表和疑似目标点位的关联三个步骤,识别出空间目标的星象坐标;具体过程为:
步骤三一、计算相邻星象间距离;
针对第t帧观测图像,选择相邻的第t-1帧观测图像;
设定
Figure FDA0004057024760000011
为第t帧观测图像上星象的质心坐标;
Figure FDA0004057024760000012
为第t-1帧观测图像上星象的质心坐标;则第t帧与第t-1帧观测图像上所有星象间的距离用下式表示为:
Figure FDA0004057024760000013
其中,Kt,t-1值为第t帧与第t-1帧观测图像的星象的运动值;
步骤三二、建立可疑目标列表;
将步骤三一中获得的第t帧与第t-1帧观测图像的星象的运动值Kt,t-1按照从小到大排列,选取前五个值建立可疑目标列表集合;
步骤三三、采用基于划分的聚类算法,根据步骤三二建立的可疑目标列表,对疑似目标点位进行关联,最终识别出空间目标;具体过程为:
空间中数据对象与聚类中心间的欧式距离计算公式为:
Figure FDA0004057024760000014
式中,a为数据对象;Cp为第p个聚类中心;m为数据对象的维度;aq,Cpq分别为a和Cp的第q个属性值;在对应的可疑目标列表中,星象坐标对应数据对象a,第p个可疑目标列表对应第p个聚类中心Cp
误差平方和SSE计算公式为:
Figure FDA0004057024760000021
式中,h为簇的个数,即为可疑目标列表中疑似目标的个数,即为目标列表的行数;最小误差平方和SSE所对应的疑似目标点坐标集合就是空间目标的航迹;
对所述疑似目标点位关联的具体过程为:计算第p+1个可疑目标列表的数据对象与第p个可疑目标列表的聚类中心Cp的欧氏距离,并将数据对象分配到聚类中心Ci所对应的簇中;然后进行下一次的迭代,直到处理完全部的可疑目标列表;最后计算误差平方和SSE,找到最小的误差平方和SSE,最小误差平方和SSE所对应的疑似目标点坐标集合即为空间目标的航迹。
2.根据权利要求1所述的基于主焦点大视场光电望远镜的空间目标识别方法,其特征在于:步骤一的具体过程为:
步骤一一、首先由预报软件利用两行根数计算出望远镜对准空间目标所需的方位角和高度角数据;
步骤一二、采用内插值算法将所述方位角和高度角数据加密到25Hz,然后加载到望远镜电机的伺服平台,所述望远镜电机的伺服平台驱动望远镜跟踪目标,获得观测图像。
3.根据权利要求2所述的基于主焦点大视场光电望远镜的空间目标识别方法,其特征在于:采用Lagrange插值算法将测站轨道预报数据进行内插生成实时跟踪预报,Lagrange插值基函数为:
Figure FDA0004057024760000022
Lagrange插值多项式为:
Figure FDA0004057024760000023
式中,n为阶数,xk为预报中的历元时刻,yk为历元时刻对应的位置状态量,x为获取的当前观测时刻,Ln(x)为x所对应的状态量;
通过Lagrange插值方法内插出所需时刻的位置状态量,对位置状态量作一阶差分,获得所述位置状态量的速度;
Figure FDA0004057024760000031
对所述状态量的速度作一阶差分,获得状态量的加速度;
Figure FDA0004057024760000032
将所述的位置状态量、位置状态量的速度以及位置状态量的加速度输出到电机的伺服平台,使望远镜精确的跟踪目标。
4.根据权利要求1所述的基于主焦点大视场光电望远镜的空间目标识别方法,其特征在于:步骤二中,所述图像处理模块对获得的观测图像依次进行显著性增强、二值化处理、闭运算膨胀图像、星象的轮廓提取和星象的质心计算,获得星象的质心坐标。
CN201911130890.7A 2019-11-19 2019-11-19 基于主焦点大视场光电望远镜的空间目标识别方法 Active CN110889353B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911130890.7A CN110889353B (zh) 2019-11-19 2019-11-19 基于主焦点大视场光电望远镜的空间目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911130890.7A CN110889353B (zh) 2019-11-19 2019-11-19 基于主焦点大视场光电望远镜的空间目标识别方法

Publications (2)

Publication Number Publication Date
CN110889353A CN110889353A (zh) 2020-03-17
CN110889353B true CN110889353B (zh) 2023-04-07

Family

ID=69747843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911130890.7A Active CN110889353B (zh) 2019-11-19 2019-11-19 基于主焦点大视场光电望远镜的空间目标识别方法

Country Status (1)

Country Link
CN (1) CN110889353B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111751809B (zh) * 2020-06-09 2023-11-14 军事科学院系统工程研究院后勤科学与技术研究所 一种点源靶标反射镜的调整角度计算方法
CN111751802B (zh) * 2020-07-27 2021-07-13 北京工业大学 一种光子级自适应高灵敏度空间微弱目标探测系统及探测方法
CN111998855B (zh) * 2020-09-02 2022-06-21 中国科学院国家天文台长春人造卫星观测站 光学望远镜共视观测确定空间目标初轨的几何方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103065130A (zh) * 2012-12-31 2013-04-24 华中科技大学 一种三维模糊空间目标识别方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
CN102540180A (zh) * 2012-01-02 2012-07-04 西安电子科技大学 天基相控阵雷达空间多目标定轨方法
KR101193833B1 (ko) * 2012-06-29 2012-10-31 류동영 위성 추적 시스템 및 그 제어 방법
CN105182678B (zh) * 2015-07-10 2018-02-02 中国人民解放军装备学院 一种基于多通道相机观测空间目标的系统及方法
CN106323599B (zh) * 2016-08-23 2018-11-09 中国科学院光电技术研究所 一种大视场望远镜光学系统成像质量的检测方法
US10234533B2 (en) * 2016-09-09 2019-03-19 The Charles Stark Draper Laboratory, Inc. Position determination by observing a celestial object transit the sun or moon
CN107609547B (zh) * 2017-09-06 2021-02-19 其峰科技有限公司 星体快速识别方法、装置及望远镜
US20190235225A1 (en) * 2018-01-26 2019-08-01 Arizona Board Of Regents On Behalf Of The University Of Arizona Space-based imaging for characterizing space objects
CN109932974B (zh) * 2019-04-03 2021-09-24 中国科学院国家天文台长春人造卫星观测站 精密测量型空间目标望远镜的嵌入式观测控制系统
CN110008938B (zh) * 2019-04-24 2021-03-09 中国人民解放军战略支援部队航天工程大学 一种空间目标形状识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103065130A (zh) * 2012-12-31 2013-04-24 华中科技大学 一种三维模糊空间目标识别方法

Also Published As

Publication number Publication date
CN110889353A (zh) 2020-03-17

Similar Documents

Publication Publication Date Title
Zhao et al. Detection, tracking, and geolocation of moving vehicle from uav using monocular camera
CN109102522B (zh) 一种目标跟踪方法及装置
CN110889353B (zh) 基于主焦点大视场光电望远镜的空间目标识别方法
CN103075998B (zh) 一种单目空间目标测距测角方法
Pasqualetto Cassinis et al. Cnn-based pose estimation system for close-proximity operations around uncooperative spacecraft
CN103149939A (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
EP3552388B1 (en) Feature recognition assisted super-resolution method
WO2014072737A1 (en) Cloud feature detection
CN105352509A (zh) 地理信息时空约束下的无人机运动目标跟踪与定位方法
CN103791902A (zh) 适用于高机动载体的星敏感器自主导航方法
CN111913190B (zh) 一种基于彩色红外光谱共孔径成像的临近空间暗弱目标定向装置
CN112444374B (zh) 一种基于光学跟踪测量设备伺服系统的跟踪评估方法
CN109631912A (zh) 一种深空球形目标被动测距方法
CN112489091B (zh) 一种基于直瞄模板的全捷联图像导引头目标跟踪方法
CN113554705B (zh) 一种变化场景下的激光雷达鲁棒定位方法
Veth et al. Two-dimensional stochastic projections for tight integration of optical and inertial sensors for navigation
CN102359788B (zh) 一种基于平台惯姿参数的序列图像目标递推识别方法
CN102123234B (zh) 无人机侦察视频分级运动补偿方法
CN116188470B (zh) 一种基于无人机航拍识别的故障定位方法和系统
CN107992677B (zh) 基于惯导信息和亮度修正的红外弱小移动目标跟踪方法
CN117649425A (zh) 一种移动目标轨迹坐标转换方法、系统、设备及介质
CN115665553B (zh) 一种无人机的自动跟踪方法、装置、电子设备及存储介质
CN114170376B (zh) 一种针对室外大场景的多源信息融合分组式运动恢复结构方法
CN116977902A (zh) 一种边海防车载光电稳定平台目标跟踪方法及系统
CN116862832A (zh) 一种基于三维实景模型的作业人员定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant