CN104482934A - 一种多传感器融合的超近距离自主导航装置与方法 - Google Patents
一种多传感器融合的超近距离自主导航装置与方法 Download PDFInfo
- Publication number
- CN104482934A CN104482934A CN201410842913.8A CN201410842913A CN104482934A CN 104482934 A CN104482934 A CN 104482934A CN 201410842913 A CN201410842913 A CN 201410842913A CN 104482934 A CN104482934 A CN 104482934A
- Authority
- CN
- China
- Prior art keywords
- extraterrestrial target
- binocular
- sensor
- infrared
- laser range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000004927 fusion Effects 0.000 title claims abstract description 12
- 238000003384 imaging method Methods 0.000 claims abstract description 83
- 238000003331 infrared imaging Methods 0.000 claims abstract description 54
- 238000001514 detection method Methods 0.000 claims abstract description 6
- 230000000007 visual effect Effects 0.000 claims description 64
- 230000010365 information processing Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 16
- 230000008878 coupling Effects 0.000 claims description 9
- 238000010168 coupling process Methods 0.000 claims description 9
- 238000005859 coupling reaction Methods 0.000 claims description 9
- 238000005192 partition Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 12
- 238000012634 optical imaging Methods 0.000 abstract 1
- 239000000203 mixture Substances 0.000 description 8
- 238000003032 molecular docking Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000877 morphologic effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/02—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by astronomical means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/22—Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
- B64G1/24—Guiding or controlling apparatus, e.g. for attitude control
- B64G1/244—Spacecraft control systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/22—Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
- B64G1/24—Guiding or controlling apparatus, e.g. for attitude control
- B64G1/36—Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/22—Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
- B64G1/64—Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
- B64G1/646—Docking or rendezvous systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/22—Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
- B64G1/64—Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
- B64G1/646—Docking or rendezvous systems
- B64G1/6462—Docking or rendezvous systems characterised by the means for engaging other vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/10—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
- G01C3/14—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
- G01S17/875—Combinations of systems using electromagnetic waves other than radio waves for determining attitude
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Astronomy & Astrophysics (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种多传感器融合的超近距离自主导航装置与方法。该装置包括传感器子系统、信息融合子系统、敏感器扫描结构和指向导引结构,将可见光成像敏感器与红外成像敏感器结合,并结合光学成像敏感器组成的被动式测量方式与激光测距传感器组成的主动式测量方式获取数据。自主导航分为三个阶段:远距离段采用双目可见光成像敏感器和双目红外成像敏感器组合的导航方式,近距离段采用双目可见光成像敏感器、双目红外成像敏感器和激光测距传感器阵列组合的导航方式,极近距离段采用激光测距传感器阵列的导航方式。本发明扩大了视场和探测范围,有效解决了被动式测量存在的遮挡问题,保证了数据测量的精度,提高了导航效率及导航的安全性和可靠性。
Description
技术领域
本发明属于空间视觉导航技术领域,更具体地,涉及一种多传感器融合的超近距离自主导航装置与方法,可用于观测卫星的空间交会对接,伴随飞行与编队飞行,空间目标的相对导航和组网编队,在太空中处于自旋运动或姿态调节过程中的空间物体的特性测量,以及观测卫星与空间物体在逐渐靠近过程中的自主图像导航。
背景技术
相对导航是以测量航天器之间的相对距离、方位信息为基础,进而确定出相对位置和姿态信息。空间运输、载人航天、在轨服务、深空探测等不同的航天活动都涉及到航天器相对位置和方位的确定、变化与保持,任何深空探测任务的成功都是建立在对深空探测器有效导航与控制的基础上完成的。在地球物理与地球环境探测、对地光学成像、掩星大气探测卫星星座、空间对抗、卫星星座、伴随飞行与编队飞行等应用中,空间视觉导航技术占据着至关重要的地位。
空间视觉导航要解决的问题包括:一、空间位置、方向、环境信息的检测;二、所获信息的分析、处理及综合;三、运动路径规划。基于光学的自主导航方式,即航天器依靠机载光学导航设备,自主地完成导航任务,不和外界发生任何光、电联系的导航方式。由于其具有自主性强、精度高、实时性好等优点,成为近年来各国学者研究的热点。基于光学的自主导航能减少操作的复杂性,降低任务的费用,简化探测器的地面支持系统,大大增强深空探测的效率,即使在探测器与地面通信联络完全中断的条件下,仍然能够完成轨道确定、轨道保持、姿态控制等日常功能,扩大了探测器在空间的应用潜力。在超近距离导航过程中,主要是基于光学的自主导航方案,基于光学的自主导航方案主要分为单目视觉导航和双目视觉导航,但由于视场角较小,探测范围有限,视野中存在遮挡等,造成部分信息因不能成像到像平面上而丢失,无法满足超近距离自主导航任务的需要。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种多传感器融合的超近距离自主导航装置与方法,目的是针对200米范围内的空间目标,实现对空间目标的自主导航。本发明扩大了视场和探测范围,有效解决了被动式测量存在的遮挡问题,保证了数据测量的精度,提高了导航效率,以及导航的安全性和可靠性。
为实现上述目的,按照本发明的一个方面,提供了一种自主导航装置,其特征在于,包括传感器子系统、信息融合子系统、敏感器扫描结构和指向导引结构;所述传感器子系统安装在所述指向导引结构上,包括第一和第二红外成像敏感器,第一和第二可见光成像敏感器,以及第一至第五激光测距传感器;所述信息融合子系统包括红外信息处理板、可见光信息处理板和星务服务器;所述第一和第二红外成像敏感器分别通过总线连接至所述红外信息处理板,所述第一和第二可见光成像敏感器分别通过总线连接至所述可见光信息处理板,所述第一至第五激光测距传感器分别连接至所述星务服务器,所述红外信息处理板和所述可见光信息处理板分别通过总线连接至所述星务服务器;所述星务服务器用于结合所述第一和第二红外成像敏感器采集的双目红外图像,所述第一和第二可见光成像敏感器采集的双目可见光图像,以及所述第一至第五激光测距传感器采集的激光数据,发送使所述传感器子系统进行姿态调整的控制指令;所述敏感器扫描结构包括连接至所述星务服务器的第一和第二旋转台,所述第一和第二可见光成像敏感器分别安装在所述第一和第二旋转台上,通过所述星务服务器控制所述第一和第二旋转台转动,使所述第一和第二可见光成像敏感器实现视场范围内的空间目标扫描;所述指向导引结构包括二自由度云台和云台伺服控制器;所述云台伺服控制器连接至所述星务服务器,用于接收来所述自星务服务器的控制指令,控制所述二自由度云台进行姿态调整,从而使所述传感器子系统进行姿态调整。
优选地,所述第一可见光成像敏感器、所述第一红外成像敏感器、所述第一激光测距传感器、所述第二红外成像敏感器和所述第二可见光成像敏感器依次设置在同一导轨上,所述第一可见光成像敏感器和所述第一红外成像敏感器与所述第二红外成像敏感器和所述第二可见光成像敏感器相对于所述第一激光测距传感器对称;所述第二至第五激光测距传感器到所述第一激光测距传感器的距离相等,所述第二和第三激光测距传感器相对于所述导轨对称,所述第四和第五激光测距传感器相对于所述导轨对称。
按照本发明的另一方面,提供了一种用上述装置进行自主导航的方法,其特征在于,包括如下步骤:(1)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,利用双目红外图像和双目可见光图像,检测并定位空间目标,得到导航装置与空间目标的相对距离;(2)判断导航装置与空间目标的相对距离是否大于100m,是则将导航装置向空间目标推进,返回步骤(1);否则顺序执行步骤(3);(3)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,第一至第五激光测距传感器采集激光数据,利用双目红外图像、双目可见光图像和激光数据,得到空间目标的三维结构信息、三维距离信息和三维运动参数;(4)根据空间目标的三维距离信息,判断导航装置与空间目标的相对距离是否大于20m,是则将导航装置向空间目标推进,返回步骤(3);否则顺序执行步骤(5);(5)第一至第五激光测距传感器采集激光数据,利用激光数据,结合步骤(3)得到的空间目标的三维结构信息和三维运动参数,得到导航装置与空间目标的相对距离和相对姿态角;(6)判断导航装置与空间目标的相对姿态角是否为0,是则顺序执行步骤(7);否则调整导航装置的姿态,减小导航装置与空间目标的相对姿态角,返回步骤(5);(7)将导航装置向空间目标推进;(8)重复执行步骤(5)至(7),直至导航装置到达空间目标,完成相对导航过程。
优选地,所述步骤(1)进一步包括如下子步骤:(1-1)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,分别处理双目红外图像和双目可见光图像,分割空间目标与背景,得到空间目标的感兴趣区域;(1-2)提取空间目标轮廓,对空间目标轮廓进行跟踪,计算空间目标轮廓的二维图形中心,得到空间目标轮廓中心在双目可见光图像的左可见光图像和右可见光图像中的坐标分别为(U1,V1)和(U′1,V′1),进而得到空间目标在双目可见光图像中的中心坐标得到空间目标轮廓中心在双目红外图像的左红外图像和右红外图像中的坐标分别为(U2,V2)和(U′2,V′2),进而得到空间目标在双目红外图像中的中心坐标根据(U1,V1)和(U′1,V′1)重建出空间目标相对于导航装置的空间距离;(1-3)计算空间目标在双目可见光图像中的中心坐标与成像平面中心的距离,以及空间目标在双目红外图像中的中心坐标与成像平面中心的距离,调整导航装置的姿态,使空间目标轮廓中心靠近成像平面中心区域;(1-4)判断空间目标轮廓中心是否在成像平面中心区域,是则完成空间目标的检测定位;否则重复执行步骤(1-1)至(1-3),直至空间目标轮廓中心落在成像平面中心区域。
优选地,所述步骤(3)进一步包括如下子步骤:(3-1)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,第一至第五激光测距传感器采集激光数据;(3-2)分别检测双目红外图像和双目可见光图像中的线段和角点特征,得到双目红外图像中的特征点和双目可见光图像中的特征点;(3-3)匹配双目红外图像的左红外图像和右红外图像中的特征点,匹配双目可见光图像的左可见光图像和右可见光图像中的特征点,重建空间目标的三维结构信息和三维距离信息;(3-4)利用第一至第五激光测距传感器采集的激光数据校正重建的空间目标的三维距离信息;(3-5)第一和第二红外成像敏感器采集双目红外序列图像,第一和第二可见光成像敏感器采集双目可见光序列图像,匹配双目红外序列图像的左红外序列图像和右红外序列图像中的特征点,匹配双目可见光序列图像的左可见光序列图像和右可见光序列图像中的特征点,得到空间目标的三维运动参数。
优选地,所述步骤(5)进一步包括如下子步骤:(5-1)第一至第五激光测距传感器分别测量其相对于空间目标的距离;(5-2)根据第一至第五激光测距传感器与空间目标的相对距离,结合步骤(3)得到的空间目标的三维结构信息和三维运动参数,分别解算出第一至第五激光测距传感器与空间目标的相对姿态角;(5-3)分别将第一至第五激光测距传感器与空间目标的相对距离和相对姿态角加权平均,得到导航装置与空间目标的相对距离和相对姿态角。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下有益效果:
1、将可见光成像敏感器与红外成像敏感器结合,有效解决了单独使用其中之一的导航方式存在的问题。首先,可见光成像敏感器能获取有光照时空间目标的形态表观信息,其成像效果最接近人眼的视觉,因此可见光图像上的信息是最直观,最感兴趣的。例如某些角点信息、边信息、拓扑结构等,都是算法中主要依赖的形态特征。但是,当光照情况不理想,或者没有光照的时候,可见光图像中包括的形态特征会不完整或者不存在,在某些情况下,甚至会出现伪特征,给预处理和重建算法的实现带来困难。本发明通过红外成像敏感器来弥补可见光成像敏感器的上述不足。空间目标可能不在太阳光照射条件下,但是只要它在运转之中,其内部发动机和处理器就会向外辐射热量,在红外相机上就会成像。而且,在有太阳光照射的情况下,空间目标的向光一面和被光一面的温度不同,红外图像能反映空间目标的某些姿态和表面特征,与可见光图像中的形态特征相辅相成。其次,红外成像敏感器形成的红外图像清晰程度低,目标形态特征表达的完整性低,特征提取难度大,本发明通过可见光成像敏感器形成的可见光图像的明显形态特征来弥补红外图像的上述不足。
2、采用了双目可见光成像敏感器、双目红外成像敏感器和激光测距传感器阵列进行组合导航的方式,结合光学成像敏感器组成的被动式测量方式与激光测距传感器组成的主动式测量方式。其中,自主导航装置配备有指向导引结构,双目可见光成像敏感器配备有扫描结构,自主导航装置的指向导引结构可实现自主导航装置的视场范围的调整,有效解决了单目和双目导航中存在的视场小、探测范围有限等问题,双目可见光成像敏感器的扫描结构有效解决被动式测量的导航方式的遮挡等问题;对于激光测距传感器组成的主动式测量方式,激光测距传感器阵列同时获取空间目标被测表面上位于一个矩形面积内的五个特征点的距离信息,避免了扫描机构存在的弊端,通过数据处理不仅得到目标卫星的距离参数还可以通过计算拟合出被测区域的表面形态,特别是近距离时,可以分析出导航装置对接口所在面相对于空间目标对接口所在面的实时距离信息和倾斜角度。
3、自主导航过程大致分为三个阶段:远距离段采用双目可见光成像敏感器和双目红外成像敏感器组合的导航方式,近距离段采用双目可见光成像敏感器、双目红外成像敏感器和激光测距传感器阵列组合的导航方式,极近距离段采用激光测距传感器阵列的导航方式。在不同的距离采用不同的元件进行数据测量,在远距离段和近距离段采用多种元件组合的导航方式,保证了数据测量的精度,提高了导航效率,以及导航的安全性和可靠性。
附图说明
图1是本发明实施例的超近距离自主导航装置的结构示意图;
图2是传感器子系统的结构示意图;
图3是本发明实施例的超近距离自主导航装置的硬件连接示意图;
图4是激光测距传感器阵列示意图;
图5是本发明实施例的超近距离自主导航方法的流程示意图;
图6是远距离段空间目标的检测定位流程图;
图7是近距离段空间目标的三维结构运动分析流程图;
图8是极近距离段获取导航装置与空间目标的相对距离和相对姿态角的流程图;
图9是激光测距测角示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明实施例的超近距离自主导航装置包括:传感器子系统、信息融合子系统、敏感器扫描结构和指向导引结构;其中,传感器子系统安装在指向导引结构上。
如图2所示,传感器子系统包括第一和第二红外成像敏感器,第一和第二可见光成像敏感器,以及第一至第五激光测距传感器。第一可见光成像敏感器、第一红外成像敏感器、第一激光测距传感器、第二红外成像敏感器和第二可见光成像敏感器依次设置在同一导轨上,第一可见光成像敏感器和第一红外成像敏感器与第二红外成像敏感器和第二可见光成像敏感器相对于第一激光测距传感器对称。第二至第五激光测距传感器到第一激光测距传感器的距离相等,第二和第三激光测距传感器相对于导轨对称,第四和第五激光测距传感器相对于导轨对称。
信息融合子系统包括红外信息处理板、可见光信息处理板和星务服务器。如图3所示,第一和第二红外成像敏感器分别通过总线连接至红外信息处理板,第一和第二可见光成像敏感器分别通过总线连接至可见光信息处理板,第一至第五激光测距传感器分别连接至星务服务器;红外信息处理板和可见光信息处理板分别通过总线连接至星务服务器。红外信息处理板通过第一和第二红外成像敏感器实时采集双目红外图像,可见光信息处理板通过第一和第二可见光成像敏感器实时采集双目可见光图像,星务服务器通过第一至第五激光测距传感器采集激光数据(第一至第五激光测距传感器相对于空间目标的距离),并分别利用红外信息处理板和可见光信息处理板处理双目红外图像和双目可见光图像,得到空间目标的三维结构信息及姿态信息,结合处理激光数据得到的相对距离和倾角信息,发送使传感器子系统进行姿态调整的控制指令。
敏感器扫描结构包括第一和第二旋转台,第一和第二可见光成像敏感器分别安装在第一和第二旋转台上,第一和第二旋转台分别安装在导轨上。第一和第二旋转台分别连接至星务服务器,通过星务服务器控制第一和第二旋转台转动,使第一和第二可见光成像敏感器实现视场范围内的空间目标扫描。
指向导引结构包括二自由度云台和云台伺服控制器。云台伺服控制器连接至星务服务器,用于接收来自星务服务器的控制指令,控制二自由度云台在两个自由度上进行姿态调整,从而使传感器子系统进行姿态调整。
首先,可见光成像敏感器能获取有光照时空间目标的形态表观信息,其成像效果最接近人眼的视觉,因此可见光图像上的信息是最直观,最感兴趣的,红外成像敏感器能弥补在光照情况不理想或者没有光照的情况下可见光图像的形态特征不完整、不存在或出现伪特征的缺陷,上述装置将可见光成像敏感器与红外成像敏感器结合,有效解决了单独使用其中之一的导航方式存在的问题。其次,利用第一和第二可见光成像敏感器组成的双目可见光成像敏感器,第一和第二红外成像敏感器组成的双目红外成像敏感器,以及第一至第五激光测距传感器组成的激光测距传感器阵列,将光学成像敏感器组成的被动式测量方式与激光测距传感器组成的主动式测量方式结合,其中,自主导航装置配备有指向导引结构,双目可见光成像敏感器配备有敏感器扫描结构,自主导航装置的指向导引结构能实现自主导航装置的时长范围的调整,有效解决了单目和双目导航中存在的视场小、探测范围有限等问题,双目可见光成像敏感器的敏感器扫描结构有效解决了被动式测量的导航方式的遮挡等问题;对于激光测距传感器组成的主动式测量方式,如图4所示,第一至第五激光测距传感器组成的激光测距传感器阵列同时获取空间目标被测表面上位于一个矩形面积内的五个特征点的距离信息,避免了扫描机构存在的弊端,通过数据处理不仅得到目标卫星的距离参数还可以通过计算拟合出被测区域的表面形态,特别是近距离时,可以分析出导航装置对接口所在面相对于空间目标对接口所在面的实时距离信息和倾斜角度。
如图5所示,利用上述装置实现超近距离自主导航的方法包括如下步骤:
(1)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,利用双目红外图像和双目可见光图像,检测并定位空间目标,得到导航装置与空间目标的相对距离。
(2)判断导航装置与空间目标的相对距离是否大于100m,是则将导航装置向空间目标推进,返回步骤(1);否则顺序执行步骤(3)。
(3)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,第一至第五激光测距传感器采集激光数据,利用双目红外图像、双目可见光图像和激光数据,得到空间目标的三维结构信息、三维距离信息和三维运动参数。
(4)根据空间目标的三维距离信息,判断导航装置与空间目标的相对距离是否大于20m,是则将导航装置向空间目标推进,返回步骤(3);否则顺序执行步骤(5)。
(5)第一至第五激光测距传感器采集激光数据,利用激光数据,结合步骤(3)得到的空间目标的三维结构信息和三维运动参数,得到导航装置与空间目标的相对距离和相对姿态角。
(6)判断导航装置与空间目标的相对姿态角是否为0,是则顺序执行步骤(7);否则调整导航装置的姿态,减小导航装置与空间目标的相对姿态角,返回步骤(5)。
(7)将导航装置向空间目标推进。
(8)重复执行步骤(5)至(7),直至导航装置到达空间目标,完成相对导航过程。
如图6所示,上述步骤(1)进一步包括如下子步骤:
(1-1)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,分别处理双目红外图像和双目可见光图像,分割空间目标与背景,得到空间目标的感兴趣区域。
(1-2)提取空间目标轮廓,对空间目标轮廓进行跟踪,计算空间目标轮廓的二维图形中心,得到空间目标轮廓中心在双目可见光图像的左可见光图像和右可见光图像中的坐标分别为(U1,V1)和(U′1,V′1),进而得到空间目标在双目可见光图像中的中心坐标得到空间目标轮廓中心在双目红外图像的左红外图像和右红外图像中的坐标分别为(U2,V2)和(U′2,V′2),进而得到空间目标在双目红外图像中的中心坐标根据(U1,V1)和(U′1,V′1)重建出空间目标相对于导航装置的空间距离。
(1-3)计算空间目标在双目可见光图像中的中心坐标与成像平面中心的距离,以及空间目标在双目红外图像中的中心坐标与成像平面中心的距离,调整导航装置的姿态,使空间目标轮廓中心靠近成像平面中心区域。
(1-4)判断空间目标轮廓中心是否在成像平面中心区域,是则完成空间目标的检测定位;否则重复执行步骤(1-1)至(1-3),直至空间目标轮廓中心落在成像平面中心区域。
如图7所示,上述步骤(3)进一步包括如下子步骤:
(3-1)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,第一至第五激光测距传感器采集激光数据。
(3-2)分别检测双目红外图像和双目可见光图像中的线段和角点特征,得到双目红外图像中的特征点和双目可见光图像中的特征点。
(3-3)匹配双目红外图像的左红外图像和右红外图像中的特征点,匹配双目可见光图像的左可见光图像和右可见光图像中的特征点,重建空间目标的三维结构信息和三维距离信息。
(3-4)利用第一至第五激光测距传感器采集的激光数据校正重建的空间目标的三维距离信息。
(3-5)第一和第二红外成像敏感器采集双目红外序列图像,第一和第二可见光成像敏感器采集双目可见光序列图像,匹配双目红外序列图像的左红外序列图像和右红外序列图像中的特征点,匹配双目可见光序列图像的左可见光序列图像和右可见光序列图像中的特征点,得到空间目标的三维运动参数。
如图8所示,上述步骤(5)进一步包括如下子步骤:
(5-1)第一至第五激光测距传感器分别测量其相对于空间目标的距离。
(5-2)根据第一至第五激光测距传感器与空间目标的相对距离,结合步骤(3)得到的空间目标的三维结构信息和三维运动参数,分别解算出第一至第五激光测距传感器与空间目标的相对姿态角,如图9所示。
(5-3)分别将第一至第五激光测距传感器与空间目标的相对距离和相对姿态角加权平均,得到导航装置与空间目标的相对距离和相对姿态角。
上述自主导航过程大致分为三个阶段:远距离段采用双目可见光成像敏感器和双目红外成像敏感器组合的导航方式,近距离段采用双目可见光成像敏感器、双目红外成像敏感器和激光测距传感器阵列组合的导航方式,极近距离段采用激光测距传感器阵列的导航方式。在不同的距离采用不同的元件进行数据测量,在远距离段和近距离段采用多种元件组合的导航方式,保证了数据测量的精度,提高了导航效率,以及导航的安全性和可靠性。当自主导航装置通过双目红外成像敏感器和双目可见光成像敏感器检测到距离100米范围内的空间目标时,启动第一至第五激光测距传感器组成的激光测距传感器阵列进行测量,采用激光测距传感器阵列同时获取空间目标被测表面上五个特征点的距离信息,通过数据处理不仅得到目标卫星的距离参数还可以通过计算拟合出被测区域的表面形态,特别是近距离时,可以分析出导航装置对接口所在面相对于空间目标对接口所在面的实时距离信息和倾斜角度。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种自主导航装置,其特征在于,包括传感器子系统、信息融合子系统、敏感器扫描结构和指向导引结构;
所述传感器子系统安装在所述指向导引结构上,包括第一和第二红外成像敏感器,第一和第二可见光成像敏感器,以及第一至第五激光测距传感器;
所述信息融合子系统包括红外信息处理板、可见光信息处理板和星务服务器;所述第一和第二红外成像敏感器分别通过总线连接至所述红外信息处理板,所述第一和第二可见光成像敏感器分别通过总线连接至所述可见光信息处理板,所述第一至第五激光测距传感器分别连接至所述星务服务器,所述红外信息处理板和所述可见光信息处理板分别通过总线连接至所述星务服务器;所述星务服务器用于结合所述第一和第二红外成像敏感器采集的双目红外图像,所述第一和第二可见光成像敏感器采集的双目可见光图像,以及所述第一至第五激光测距传感器采集的激光数据,发送使所述传感器子系统进行姿态调整的控制指令;
所述敏感器扫描结构包括连接至所述星务服务器的第一和第二旋转台,所述第一和第二可见光成像敏感器分别安装在所述第一和第二旋转台上,通过所述星务服务器控制所述第一和第二旋转台转动,使所述第一和第二可见光成像敏感器实现视场范围内的空间目标扫描;
所述指向导引结构包括二自由度云台和云台伺服控制器;所述云台伺服控制器连接至所述星务服务器,用于接收来所述自星务服务器的控制指令,控制所述二自由度云台进行姿态调整,从而使所述传感器子系统进行姿态调整。
2.如权利要求1所述的自主导航装置,其特征在于,所述第一可见光成像敏感器、所述第一红外成像敏感器、所述第一激光测距传感器、所述第二红外成像敏感器和所述第二可见光成像敏感器依次设置在同一导轨上,所述第一可见光成像敏感器和所述第一红外成像敏感器与所述第二红外成像敏感器和所述第二可见光成像敏感器相对于所述第一激光测距传感器对称;所述第二至第五激光测距传感器到所述第一激光测距传感器的距离相等,所述第二和第三激光测距传感器相对于所述导轨对称,所述第四和第五激光测距传感器相对于所述导轨对称。
3.一种用权利要求1或2所述的装置进行自主导航的方法,其特征在于,包括如下步骤:
(1)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,利用双目红外图像和双目可见光图像,检测并定位空间目标,得到导航装置与空间目标的相对距离;
(2)判断导航装置与空间目标的相对距离是否大于100m,是则将导航装置向空间目标推进,返回步骤(1);否则顺序执行步骤(3);
(3)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,第一至第五激光测距传感器采集激光数据,利用双目红外图像、双目可见光图像和激光数据,得到空间目标的三维结构信息、三维距离信息和三维运动参数;
(4)根据空间目标的三维距离信息,判断导航装置与空间目标的相对距离是否大于20m,是则将导航装置向空间目标推进,返回步骤(3);否则顺序执行步骤(5);
(5)第一至第五激光测距传感器采集激光数据,利用激光数据,结合步骤(3)得到的空间目标的三维结构信息和三维运动参数,得到导航装置与空间目标的相对距离和相对姿态角;
(6)判断导航装置与空间目标的相对姿态角是否为0,是则顺序执行步骤(7);否则调整导航装置的姿态,减小导航装置与空间目标的相对姿态角,返回步骤(5);
(7)将导航装置向空间目标推进;
(8)重复执行步骤(5)至(7),直至导航装置到达空间目标,完成相对导航过程。
4.如权利要求3所述的自主导航的方法,其特征在于,所述步骤(1)进一步包括如下子步骤:
(1-1)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,分别处理双目红外图像和双目可见光图像,分割空间目标与背景,得到空间目标的感兴趣区域;
(1-2)提取空间目标轮廓,对空间目标轮廓进行跟踪,计算空间目标轮廓的二维图形中心,得到空间目标轮廓中心在双目可见光图像的左可见光图像和右可见光图像中的坐标分别为(U1,V1)和(U′1,V′1),进而得到空间目标在双目可见光图像中的中心坐标得到空间目标轮廓中心在双目红外图像的左红外图像和右红外图像中的坐标分别为(U2,V2)和(U′2,V′2),进而得到空间目标在双目红外图像中的中心坐标根据(U1,V1)和(U′1,V′1)重建出空间目标相对于导航装置的空间距离;
(1-3)计算空间目标在双目可见光图像中的中心坐标与成像平面中心的距离,以及空间目标在双目红外图像中的中心坐标与成像平面中心的距离,调整导航装置的姿态,使空间目标轮廓中心靠近成像平面中心区域;
(1-4)判断空间目标轮廓中心是否在成像平面中心区域,是则完成空间目标的检测定位;否则重复执行步骤(1-1)至(1-3),直至空间目标轮廓中心落在成像平面中心区域。
5.如权利要求3或4所述的自主导航的方法,其特征在于,所述步骤(3)进一步包括如下子步骤:
(3-1)第一和第二红外成像敏感器采集双目红外图像,第一和第二可见光成像敏感器采集双目可见光图像,第一至第五激光测距传感器采集激光数据;
(3-2)分别检测双目红外图像和双目可见光图像中的线段和角点特征,得到双目红外图像中的特征点和双目可见光图像中的特征点;
(3-3)匹配双目红外图像的左红外图像和右红外图像中的特征点,匹配双目可见光图像的左可见光图像和右可见光图像中的特征点,重建空间目标的三维结构信息和三维距离信息;
(3-4)利用第一至第五激光测距传感器采集的激光数据校正重建的空间目标的三维距离信息;
(3-5)第一和第二红外成像敏感器采集双目红外序列图像,第一和第二可见光成像敏感器采集双目可见光序列图像,匹配双目红外序列图像的左红外序列图像和右红外序列图像中的特征点,匹配双目可见光序列图像的左可见光序列图像和右可见光序列图像中的特征点,得到空间目标的三维运动参数。
6.如权利要求3至5中任一项所述的自主导航的方法,其特征在于,所述步骤(5)进一步包括如下子步骤:
(5-1)第一至第五激光测距传感器分别测量其相对于空间目标的距离;
(5-2)根据第一至第五激光测距传感器与空间目标的相对距离,结合步骤(3)得到的空间目标的三维结构信息和三维运动参数,分别解算出第一至第五激光测距传感器与空间目标的相对姿态角;
(5-3)分别将第一至第五激光测距传感器与空间目标的相对距离和相对姿态角加权平均,得到导航装置与空间目标的相对距离和相对姿态角。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410842913.8A CN104482934B (zh) | 2014-12-30 | 2014-12-30 | 一种多传感器融合的超近距离自主导航装置与方法 |
US15/105,459 US9557177B2 (en) | 2014-12-30 | 2015-02-10 | Multi-sensor merging based super-close distance autonomous navigation apparatus and method |
PCT/CN2015/072696 WO2016106961A1 (zh) | 2014-12-30 | 2015-02-10 | 一种多传感器融合的超近距离自主导航装置与方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410842913.8A CN104482934B (zh) | 2014-12-30 | 2014-12-30 | 一种多传感器融合的超近距离自主导航装置与方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104482934A true CN104482934A (zh) | 2015-04-01 |
CN104482934B CN104482934B (zh) | 2016-10-19 |
Family
ID=52757504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410842913.8A Active CN104482934B (zh) | 2014-12-30 | 2014-12-30 | 一种多传感器融合的超近距离自主导航装置与方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9557177B2 (zh) |
CN (1) | CN104482934B (zh) |
WO (1) | WO2016106961A1 (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106647410A (zh) * | 2016-12-30 | 2017-05-10 | 易瓦特科技股份公司 | 用于飞行过程中的避障距离进行监测的方法及系统 |
CN106686366A (zh) * | 2017-03-08 | 2017-05-17 | 常州大学怀德学院 | 一种基于双目与双激光测距模块的3d传感器系统 |
CN107241533A (zh) * | 2016-03-29 | 2017-10-10 | 中国人民解放军92232部队 | 一种水下面阵扫描激光成像装置及方法 |
CN107450080A (zh) * | 2017-09-27 | 2017-12-08 | 北京特种机械研究所 | 基于视觉定位及激光测距的两车自动对接方法 |
CN108151806A (zh) * | 2017-12-27 | 2018-06-12 | 成都西科微波通讯有限公司 | 基于目标距离的异类多传感器数据融合方法 |
CN109085852A (zh) * | 2018-09-20 | 2018-12-25 | 清华四川能源互联网研究院 | 一种适用于高层非平整结构的飞行机器人系统 |
CN109146942A (zh) * | 2018-07-30 | 2019-01-04 | 苏州穿山甲机器人股份有限公司 | 图像深度测量装置及方法 |
CN109211223A (zh) * | 2018-09-30 | 2019-01-15 | 北京控制工程研究所 | 一种集成化接近测量敏感器及系统 |
CN109303995A (zh) * | 2018-09-12 | 2019-02-05 | 东南大学 | 基于火源定位识别的消防机器人消防炮控制方法 |
CN109584636A (zh) * | 2018-11-20 | 2019-04-05 | 武汉理工大学 | 用于港船机协同安全监测的靠泊辅助装置及其监控方法 |
CN110133677A (zh) * | 2019-06-26 | 2019-08-16 | 吉林大学 | 一种一体化导航敏感器 |
CN111079607A (zh) * | 2019-12-05 | 2020-04-28 | 灵动科技(北京)有限公司 | 具有追踪功能的自动驾驶系统 |
CN111337031A (zh) * | 2020-02-24 | 2020-06-26 | 南京航空航天大学 | 一种基于姿态信息的航天器地标匹配自主位置确定方法 |
CN111680552A (zh) * | 2020-04-28 | 2020-09-18 | 北京控制工程研究所 | 一种特征部位智能识别方法 |
CN111709881A (zh) * | 2020-06-21 | 2020-09-25 | 北京理明智能科技有限公司 | 一种类人眼动态分辨率多模融合成像方法 |
CN111750821A (zh) * | 2020-07-10 | 2020-10-09 | 江苏集萃智能光电系统研究所有限公司 | 一种位姿参数测量方法、装置、系统和存储介质 |
CN113740816A (zh) * | 2021-08-13 | 2021-12-03 | 昆山丘钛微电子科技股份有限公司 | 摄像头模组的测距误差校正方法及装置 |
CN115150547A (zh) * | 2022-06-02 | 2022-10-04 | 合肥鼎原科技有限公司 | 一种飞行监视装置及其监视方法 |
CN116105694A (zh) * | 2022-12-09 | 2023-05-12 | 中国科学院上海技术物理研究所 | 一种多手段光学载荷复合的空间目标三维视觉测量方法 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3185037B1 (en) * | 2015-12-23 | 2020-07-08 | STMicroelectronics (Research & Development) Limited | Depth imaging system |
USD800913S1 (en) | 2016-06-30 | 2017-10-24 | Click Diagnostics, Inc. | Detection window for molecular diagnostic device |
JP6583642B2 (ja) * | 2017-03-06 | 2019-10-02 | 学校法人電波学園 | 宇宙航行体、宇宙航行体用コントローラ、制御方法及びコンピュータプログラム |
US11022511B2 (en) | 2018-04-18 | 2021-06-01 | Aron Kain | Sensor commonality platform using multi-discipline adaptable sensors for customizable applications |
US10832054B2 (en) * | 2018-10-15 | 2020-11-10 | National Applied Research Laboratories | Guidance seeking device for a satellite and method for enhancing the performance of the same |
CN109596120A (zh) * | 2018-12-25 | 2019-04-09 | 芜湖哈特机器人产业技术研究院有限公司 | 一种组合定位导航传感器系统 |
CN109613471B (zh) * | 2018-12-26 | 2022-12-23 | 芜湖哈特机器人产业技术研究院有限公司 | 一种用于室内无轨导航的五点红外顶标及其识别方法 |
CN109900713B (zh) * | 2019-04-17 | 2022-01-18 | 中国人民解放军国防科技大学 | 摄像引导的无人机风电叶片缺陷动态检测系统及其方法 |
JP7277236B2 (ja) * | 2019-04-18 | 2023-05-18 | キヤノン株式会社 | 撮像装置、撮像システム、プログラム、記録媒体、及び制御方法 |
JP6775234B2 (ja) * | 2019-08-21 | 2020-10-28 | 学校法人電波学園 | 宇宙航行体 |
CN110456389A (zh) * | 2019-09-03 | 2019-11-15 | 湖北时代万新国际教育发展有限公司 | 一种基于移动端的无线传感器定位追踪系统 |
CN110861605B (zh) * | 2019-11-29 | 2024-08-16 | 中汽研汽车检验中心(常州)有限公司 | 一种大型车盲区复合型监测装置及方法 |
EP4105131B1 (en) * | 2020-03-31 | 2024-08-21 | Kawasaki Jukogyo Kabushiki Kaisha | Control device and computer program |
CN112001845B (zh) * | 2020-08-21 | 2024-09-17 | 马胤刚 | 双光图像的坐标转换方法 |
CN112747745A (zh) * | 2020-12-25 | 2021-05-04 | 长春理工大学 | 一种目标特性参数测量装置及方法 |
CN113029124B (zh) * | 2021-03-03 | 2024-01-16 | 吉林大学 | 一种基于红外视觉引导和激光测距的三维姿态位置测量装置 |
FR3129737B1 (fr) * | 2021-11-26 | 2023-11-24 | Infinite Orbits | Systeme et procede de navigation autonome base vision d’un satellite |
CN114638880B (zh) * | 2022-05-23 | 2022-08-12 | 中国科学技术大学先进技术研究院 | 平面测距方法、单目摄像头及计算机可读存储介质 |
CN115493512B (zh) * | 2022-08-10 | 2023-06-13 | 思看科技(杭州)股份有限公司 | 数据处理方法、三维扫描系统、电子装置和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1262734A (zh) * | 1997-06-03 | 2000-08-09 | 斯蒂芬·拜德 | 包含方向检测器、位置检测器及数据库的便携式导航系统 |
US20090312944A1 (en) * | 2008-06-11 | 2009-12-17 | Byron King | Method and Device for Supplying Location Information |
CN101750012A (zh) * | 2008-12-19 | 2010-06-23 | 中国科学院沈阳自动化研究所 | 一种测量物体六维位姿的装置 |
CN102288178A (zh) * | 2011-03-28 | 2011-12-21 | 南京航空航天大学 | 空天目标中远距离相对导航装置及其导航方法 |
CN102928861A (zh) * | 2012-09-29 | 2013-02-13 | 凯迈(洛阳)测控有限公司 | 机载设备用目标定位方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04218790A (ja) | 1990-12-19 | 1992-08-10 | Mitsubishi Electric Corp | 距離測定装置 |
US7834905B2 (en) * | 2002-06-18 | 2010-11-16 | Bayerische Motoren Werke Aktiengesellschaft | Method and system for visualizing the environment of a vehicle with a distance-dependent merging of an infrared and a visual image |
US7760909B2 (en) * | 2005-01-12 | 2010-07-20 | Brainlab Ag | Video tracking and registering |
CN101644580B (zh) * | 2009-08-26 | 2011-06-01 | 西安电子科技大学 | 多脉冲星信号模拟器 |
CN102053249B (zh) | 2009-10-30 | 2013-04-03 | 吴立新 | 基于激光扫描和序列编码图形的地下空间高精度定位方法 |
CN103364781B (zh) | 2012-04-11 | 2015-09-30 | 南京财经大学 | 基于遥感数据与地理信息系统的粮田地面参照点筛选方法 |
CN103745458B (zh) * | 2013-12-26 | 2015-07-29 | 华中科技大学 | 一种鲁棒的基于双目光流的空间目标旋转轴及质心估计方法 |
-
2014
- 2014-12-30 CN CN201410842913.8A patent/CN104482934B/zh active Active
-
2015
- 2015-02-10 US US15/105,459 patent/US9557177B2/en active Active
- 2015-02-10 WO PCT/CN2015/072696 patent/WO2016106961A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1262734A (zh) * | 1997-06-03 | 2000-08-09 | 斯蒂芬·拜德 | 包含方向检测器、位置检测器及数据库的便携式导航系统 |
US20090312944A1 (en) * | 2008-06-11 | 2009-12-17 | Byron King | Method and Device for Supplying Location Information |
CN101750012A (zh) * | 2008-12-19 | 2010-06-23 | 中国科学院沈阳自动化研究所 | 一种测量物体六维位姿的装置 |
CN102288178A (zh) * | 2011-03-28 | 2011-12-21 | 南京航空航天大学 | 空天目标中远距离相对导航装置及其导航方法 |
CN102928861A (zh) * | 2012-09-29 | 2013-02-13 | 凯迈(洛阳)测控有限公司 | 机载设备用目标定位方法及装置 |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107241533A (zh) * | 2016-03-29 | 2017-10-10 | 中国人民解放军92232部队 | 一种水下面阵扫描激光成像装置及方法 |
CN107241533B (zh) * | 2016-03-29 | 2019-09-24 | 中国人民解放军92232部队 | 一种水下面阵扫描激光成像装置及方法 |
CN106647410B (zh) * | 2016-12-30 | 2019-02-19 | 易瓦特科技股份公司 | 用于飞行过程中的避障距离进行监测的方法及系统 |
CN106647410A (zh) * | 2016-12-30 | 2017-05-10 | 易瓦特科技股份公司 | 用于飞行过程中的避障距离进行监测的方法及系统 |
CN106686366A (zh) * | 2017-03-08 | 2017-05-17 | 常州大学怀德学院 | 一种基于双目与双激光测距模块的3d传感器系统 |
CN107450080A (zh) * | 2017-09-27 | 2017-12-08 | 北京特种机械研究所 | 基于视觉定位及激光测距的两车自动对接方法 |
CN107450080B (zh) * | 2017-09-27 | 2019-11-08 | 北京特种机械研究所 | 基于视觉定位及激光测距的两车自动对接方法 |
CN108151806A (zh) * | 2017-12-27 | 2018-06-12 | 成都西科微波通讯有限公司 | 基于目标距离的异类多传感器数据融合方法 |
CN108151806B (zh) * | 2017-12-27 | 2020-11-10 | 成都西科微波通讯有限公司 | 基于目标距离的异类多传感器数据融合方法 |
CN109146942B (zh) * | 2018-07-30 | 2024-04-05 | 苏州穿山甲机器人股份有限公司 | 图像深度测量装置及方法 |
CN109146942A (zh) * | 2018-07-30 | 2019-01-04 | 苏州穿山甲机器人股份有限公司 | 图像深度测量装置及方法 |
CN109303995A (zh) * | 2018-09-12 | 2019-02-05 | 东南大学 | 基于火源定位识别的消防机器人消防炮控制方法 |
CN109085852A (zh) * | 2018-09-20 | 2018-12-25 | 清华四川能源互联网研究院 | 一种适用于高层非平整结构的飞行机器人系统 |
CN109085852B (zh) * | 2018-09-20 | 2020-05-08 | 清华四川能源互联网研究院 | 一种适用于高层非平整结构的飞行机器人系统 |
CN109211223A (zh) * | 2018-09-30 | 2019-01-15 | 北京控制工程研究所 | 一种集成化接近测量敏感器及系统 |
CN109584636A (zh) * | 2018-11-20 | 2019-04-05 | 武汉理工大学 | 用于港船机协同安全监测的靠泊辅助装置及其监控方法 |
CN110133677B (zh) * | 2019-06-26 | 2020-12-04 | 吉林大学 | 一种一体化导航敏感器 |
CN110133677A (zh) * | 2019-06-26 | 2019-08-16 | 吉林大学 | 一种一体化导航敏感器 |
CN111079607A (zh) * | 2019-12-05 | 2020-04-28 | 灵动科技(北京)有限公司 | 具有追踪功能的自动驾驶系统 |
WO2021109890A1 (zh) * | 2019-12-05 | 2021-06-10 | 灵动科技(北京)有限公司 | 具有追踪功能的自动驾驶系统 |
CN111337031A (zh) * | 2020-02-24 | 2020-06-26 | 南京航空航天大学 | 一种基于姿态信息的航天器地标匹配自主位置确定方法 |
CN111680552B (zh) * | 2020-04-28 | 2023-10-03 | 北京控制工程研究所 | 一种特征部位智能识别方法 |
CN111680552A (zh) * | 2020-04-28 | 2020-09-18 | 北京控制工程研究所 | 一种特征部位智能识别方法 |
CN111709881A (zh) * | 2020-06-21 | 2020-09-25 | 北京理明智能科技有限公司 | 一种类人眼动态分辨率多模融合成像方法 |
CN111750821A (zh) * | 2020-07-10 | 2020-10-09 | 江苏集萃智能光电系统研究所有限公司 | 一种位姿参数测量方法、装置、系统和存储介质 |
CN113740816A (zh) * | 2021-08-13 | 2021-12-03 | 昆山丘钛微电子科技股份有限公司 | 摄像头模组的测距误差校正方法及装置 |
CN113740816B (zh) * | 2021-08-13 | 2024-10-18 | 昆山丘钛微电子科技股份有限公司 | 摄像头模组的测距误差校正方法及装置 |
CN115150547A (zh) * | 2022-06-02 | 2022-10-04 | 合肥鼎原科技有限公司 | 一种飞行监视装置及其监视方法 |
CN116105694A (zh) * | 2022-12-09 | 2023-05-12 | 中国科学院上海技术物理研究所 | 一种多手段光学载荷复合的空间目标三维视觉测量方法 |
CN116105694B (zh) * | 2022-12-09 | 2024-03-12 | 中国科学院上海技术物理研究所 | 一种多手段光学载荷复合的空间目标三维视觉测量方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160363451A1 (en) | 2016-12-15 |
CN104482934B (zh) | 2016-10-19 |
US9557177B2 (en) | 2017-01-31 |
WO2016106961A1 (zh) | 2016-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104482934A (zh) | 一种多传感器融合的超近距离自主导航装置与方法 | |
US11953910B2 (en) | Autonomous platform guidance systems with task planning and obstacle avoidance | |
CN106681353B (zh) | 基于双目视觉与光流融合的无人机避障方法及系统 | |
US11747823B2 (en) | Monocular modes for autonomous platform guidance systems with auxiliary sensors | |
US10571926B1 (en) | Autonomous platform guidance systems with auxiliary sensors and obstacle avoidance | |
US10571925B1 (en) | Autonomous platform guidance systems with auxiliary sensors and task planning | |
US11829142B2 (en) | Unmanned aerial vehicle adaptable to obstructions | |
AU2019217205B2 (en) | Method of and apparatus for analyzing images | |
CN103869820B (zh) | 一种巡视器地面导航规划控制方法 | |
CN102042835B (zh) | 自主式水下机器人组合导航系统 | |
CN111247557A (zh) | 用于移动目标物体检测的方法、系统以及可移动平台 | |
CN109709801A (zh) | 一种基于激光雷达的室内无人机定位系统及方法 | |
ES2983781T3 (es) | Sistemas de control y navegación, técnicas de optimización de pose, mapeo y localización | |
CN107688184A (zh) | 一种定位方法以及系统 | |
CN112184812B (zh) | 提升无人机相机对AprilTag识别定位精度方法及定位方法和系统 | |
Sanfourche et al. | Perception for UAV: Vision-Based Navigation and Environment Modeling. | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN103929635B (zh) | 一种uuv纵横摇时的双目视觉图像补偿方法 | |
CN109584264B (zh) | 一种基于深度学习的无人机视觉引导空中加油方法 | |
CN112419403B (zh) | 一种基于二维码阵列的室内无人机定位方法 | |
Du et al. | Autonomous measurement and semantic segmentation of non-cooperative targets with deep convolutional neural networks | |
Cui et al. | Precise landing control of UAV based on binocular visual SLAM | |
US20150279219A1 (en) | Procedure for the detection and display of artificial obstacles for a rotary-wing aircraft | |
Stambler et al. | Detection and reconstruction of wires using cameras for aircraft safety systems | |
Tong et al. | Dynamic measurement of a long‐distance moving object using multi‐binocular high‐speed videogrammetry with adaptive‐weighting bundle adjustment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |