CN108871311B - 位姿确定方法和装置 - Google Patents
位姿确定方法和装置 Download PDFInfo
- Publication number
- CN108871311B CN108871311B CN201810550880.8A CN201810550880A CN108871311B CN 108871311 B CN108871311 B CN 108871311B CN 201810550880 A CN201810550880 A CN 201810550880A CN 108871311 B CN108871311 B CN 108871311B
- Authority
- CN
- China
- Prior art keywords
- image
- time
- electronic equipment
- real time
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种位姿确定方法和装置。所述方法包括:获取电子设备的第一硬件参数信息;将所述第一硬件参数信息与定位算法进行匹配,得到所述第一硬件参数信息所匹配的目标定位算法;利用所述目标定位算法实时获取所述电子设备的实时姿态估计。采用本方法能够实现跨平台使用,并且能够自动的适应不同的机型。
Description
技术领域
本发明涉及电子设备技术领域,特别是涉及位姿确定方法和装置。
背景技术
随着信息时代的到来,电子设备成为了生活中必不可少的工具,电子设备的增强现实(Augmented Reality,AR)技术的需求也越来越大。AR技术的核心技术是即时定位与地图构建(Simultaneous localization and mapping,SLAM)技术,即通过SLAM技术实现电子设备的实时姿态估计。
目前电子设备的SLAM技术主要有Apple的ARKit和Google的ARCore,但是,ARKit所采用的定位算法不能用于Android系统的电子设备,而ARCore所采用的定位算法不能用于IOS系统的电子设备,即ARKit和ARCore不能跨平台使用。
发明内容
基于此,有必要针对ARKit和ARCore不能跨平台使用的问题,提供一种位姿确定方法和装置。
第一方面,本发明实施例提供一种位姿确定方法,包括:
获取电子设备的第一硬件参数信息;
将第一硬件参数信息与定位算法进行匹配,得到第一硬件参数信息所匹配的目标定位算法;
利用目标定位算法实时获取电子设备的实时姿态估计。
在其中一个实施例中,利用目标定位算法实时获取电子设备的实时姿态估计,包括:
通过电子设备的视觉传感器实时获取图像;
提取图像中关键点的位置;
使用与第一硬件参数信息匹配的描述子提取方式,提取关键点的描述子;
根据图像中关键点的位置和每个关键点的描述子,确定电子设备的实时姿态估计。
在其中一个实施例中,根据图像中关键点位置和每个关键点的描述子,确定电子设备的实时姿态估计,包括:
将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中的关键点的位置和每个关键点的描述子;
至少将相关联的图像特征作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
在其中一个实施例中,将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,包括:
使用与第一硬件参数信息匹配的图像特征关联算法,将实时获取到的图像的图像特征与前一帧图像的图像特征相关联。
在其中一个实施例中,根据图像中关键点位置和每个关键点的描述子,确定电子设备的实时姿态估计,包括:
将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中的关键点的位置和每个关键点的描述子;
至少将相关联的图像特征作为观测量,得到观测误差;
获取前一帧图像的三维平移量和三维旋转量;
通过前一帧图像的三维平移量和三维旋转量投影与实时获取到的图像估计得到前一帧图像与实时获取到的图像的第一估计二维平移量;
通过图像跟踪算法估计得到实时获取到的图像与前一帧图像的第二估计二维平移量;
根据第一估计二维平移量与第二估计二维平移量确定第一误差;
根据目标定位算法,通过第一误差与观测误差,得到电子设备的实时姿态估计。
在其中一个实施例中,还包括:
实时通过电子设备的惯性测量单元获取加速度信息和角速度信息,将加速度信息和角速度信息与视觉传感器获取的图像的图像特征进行时间同步;
至少将相关联的图像特征作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计,包括:
将时间同步后的图像特征、加速度信息和角速度信息组合作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
在其中一个实施例中,至少将相关联的图像特征作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计包括:
将惯性测量单元数据信息中的偏置和噪声幅值、惯性测量单元数据信息的时间戳与图像的时间戳之间的动态延迟时间、电子设备的外参、第二硬件参数信息中至少一个作为目标定位算法的估计量,最小化观测误差,得到电子设备的实时姿态估计;其中,电子设备的外参包括视觉传感器与惯性测量单元的相对姿态。
在其中一个实施例中,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计包括:
将电子设备的视觉传感器的内参作为目标定位算法的随机变量,计算观测误差的分布,将观测误差的分布中最小值所对应的姿态作为电子设备的实时姿态估计;其中,电子设备的视觉传感器的内参包括电子设备的视觉传感器的焦距、光心位置中的至少一个;其中,随机变量服从高斯分布。
第二方面,本发明实施例提供一种位姿确定装置,包括:
第一获取模块,用于获取电子设备的第一硬件参数信息;
匹配模块,用于将第一硬件参数信息与定位算法进行匹配,得到第一硬件参数信息所匹配的目标定位算法;
第二获取模块,用于利用目标定位算法实时获取电子设备的实时姿态估计。
第三方面,本发明实施例提供的一种电子设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述任一实施例中方法的步骤。
第四方面,本发明实施例提供的一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任一实施例中方法的步骤。
本发明提供的位姿确定方法和装置,通过获取到的电子设备的第一硬件参数信息与定位算法进行匹配,得到第一硬件参数信息所匹配的目标定位算法,然后利用上述匹配到的目标定位算法实时获取电子设备的实时姿态估计。本实施例提供的位姿确定方法中所采用的目标定位算法是根据电子设备的第一硬件参数信息所匹配得到的,而与电子设备所采用的是Android系统还是IOS系统无关,也就是本实施例提供的位姿确定方法可以跨平台使用,而且目标定位算法只需要与电子设备的第一硬件参数信息相匹配即可,即能够自动的适应不同的机型,而且无需对适配的每一种机型进行精细地校准测量。
附图说明
图1为一个实施例提供的位姿确定方法的流程示意图;
图2为一个实施例提供的位姿确定方法中目标定位算法执行步骤的流程示意图;
图3为一个实施例提供的位姿确定方法中确定电子设备的实时姿态估计的流程示意图;
图4为另一个实施例提供的位姿确定方法中确定电子设备的实时姿态估计的流程示意图;
图5为一个实施例提供的位姿确定装置的结构示意图;
图6为另一个实施例提供的位姿确定装置的结构示意图;
图7为一个实施例中电子设备的内部结构图。
具体实施方式
随着信息技术的不断发展,越来越多的应用程序应用在电子设备上,比如增强现实(Augmented Reality,AR)技术应用在手机端,而AR技术的核心技术是即时定位与地图构建(Simultaneous localization and mapping,SLAM)技术,即通过SLAM技术实现电子设备的实时姿态估计。SLAM技术通过利用视觉传感器和惯性测量单元(Inertial measurementunit,IMU)的输入,来获取电子设备在真实世界中的定位,并对真实世界进行建模。目前电子设备的SLAM技术主要有Apple的ARKit和Google的ARCore,但是,ARKit所采用的定位算法不能用于Android系统的电子设备,而ARCore所采用的定位算法不能用于IOS系统的电子设备,即ARKit和ARCore不能跨平台使用。另外,ARCore需要对适配的每一种机型进行精细地校准测量,而不能自动地适应不同的机型。本申请提供的位姿确定方法和装置旨在解决传统技术的如上技术问题。
为了使本发明的目的、技术方案及优点更加清楚明白,通过下述实施例并结合附图,对本发明实施例中的技术方案的进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
图1为一个实施例提供的位姿确定方法的流程示意图。本实施例涉及的是根据第一硬件参数信息所匹配的目标定位算法实时获取电子设备的实时姿态估计的具体过程。如图1所示,该方法包括:
S101、获取电子设备的第一硬件参数信息。
可选的,上述电子设备可以但不限于是各种智能手机、平板电脑和便携式可穿戴设备。可选的,上述电子设备的第一硬件参数信息可以包括:电子设备的CPU的计算能力、电子设备是否包含惯性测量单元(如加速度计和陀螺仪),其中,电子设备中有预置的CPU计算能力分数,根据CPU计算能力分数对电子设备的CPU的计算能力进行划分等级。如果电子设备包含惯性测量单元时,第一硬件参数信息还可以包括:惯性测量单元的厂商信息及惯性测量单元中加速度计和陀螺仪的硬件参数、加速度计和陀螺仪的品牌等。
可选的,还可以基于位姿确定的应用程序开启后,再获取电子设备的第一硬件参数信息。可选的,上述基于位姿确定的应用程序如AR应用程序。
S102、将第一硬件参数信息与定位算法进行匹配,得到第一硬件参数信息所匹配的目标定位算法。
具体的,上述定位算法可以包括:非线性卡尔曼滤波算法(计算量较小,精度不够)、非线性最优化算法(需要多次迭代,精度更好,但运算量更高),非线性最优化算法如高斯牛顿法、莱文贝格-马夸特法等。可选的,上述定位算法可以预置在电子设备中,也可以预置在云端,还可以预置在其他可以使第一硬件参数信息匹配到的其他位置,本实施例中对定位算法预置位置不进行限定。一般情况,在电子设备或者云端或其他位置的定位算法会预置多个,这样便于电子设备从多个定位算法中选出与第一硬件参数信息所匹配的定位算法。
在电子设备的第一硬件参数信息中电子设备的CPU的计算能力权重最高,即根据第一硬件参数信息与电子设备中预置的多个算法进行匹配时,主要根据CPU的计算能力进行匹配。例如,根据上述获取到的电子设备的第一硬件参数信息,如果CPU的计算能力强,即电子设备的CPU的计算能力的等级比较高,再配合其他第一硬件参数信息,将匹配非线性最优化算法,如高斯牛顿法。
S103、利用目标定位算法实时获取电子设备的实时姿态估计。
具体的,上述电子设备的实时姿态估计包括电子设备的实时平移量和实时旋转量。根据上述匹配到的目标定位算法,对电子设备的实时平移量和实时旋转量进行实时计算。
本实施例提供的位姿确定方法,通过获取到的电子设备的第一硬件参数信息与定位算法进行匹配,得到第一硬件参数信息所匹配的目标定位算法,然后利用上述匹配到的目标定位算法实时获取电子设备的实时姿态估计。本实施例提供的位姿确定方法中所采用的目标定位算法是根据电子设备的第一硬件参数信息所匹配得到的,而与电子设备所采用的是Android系统还是IOS系统无关,也就是本实施例提供的位姿确定方法可以跨平台使用,而且目标定位算法只需要与电子设备的第一硬件参数信息相匹配即可,即能够自动的适应不同的机型,而且无需对适配的每一种机型进行精细地校准测量。
图2为一个实施例提供的位姿确定方法中目标定位算法执行步骤的流程示意图。本实施例涉及的是如何利用目标定位算法实时获取电子设备的实时姿态估计的具体过程。在上述实施例的基础上,可选的,上述S103可以包括:
S201、通过电子设备的视觉传感器实时获取图像。
具体的,视觉传感器可以为前置摄像头,也可以为后置摄像头,需要说明的是,本实施例对视觉传感器的类型不做限定,只需要能实时获取到图像即可。
S202、提取图像中关键点的位置。
可选的,可以采用加速分割测试特征(Features from Accelerated SegmentTest,FAST)算法提取实时获取的图像中关键点的位置,也可以采用高斯函数的差分(Difference of Gaussian,DoG)算法提取实时获取的图像中关键点的位置,也可以采用自适应通用加速分割检测(Adaptive andGeneric Accelerated Segment Test,AGAST)算法提取实时获取的图像中关键点的位置,还可以采用快速二值鲁棒不变性可尺缩关键点(Binary Robust Invariant Scalable Keypoints,BRISK)算法等算法提取实时获取的图像中关键点的位置,还可以采用其他算法提取实时获取的图像中关键点的位置,需要说明的是,本实施例中对采用哪种算法提取实时获取的图像中关键点的位置不做限制。下述以采用FAST算法提取实时获取的图像中的关键点的位置为例进行说明。
可选的,根据第一硬件参数信息(主要参考CPU的计算能力)的不同,FAST算法中函数的参数会随之改变,当然,第一硬件参数信息不同时,FAST算法中函数的参数可以采用固定不变的数值。例如,当CPU的计算能力较强时,可以相对多的提取一些图像中关键点的位置,反正,相对少的提取一些图像中关键点的位置。
上述根据第一硬件参数信息的不同,FAST算法中函数的参数随之改变时,提取实时获取的图像中的关键点的位置数量不同,提取的关键点的位置越多,位姿确定会越精准。
S203、使用与第一硬件参数信息匹配的描述子提取方式,提取关键点的描述子。
具体的,根据第一硬件参数信息(主要参考CPU的计算能力),可以选择与第一硬件参数信息匹配的描述子提取方式。可选的,描述子提取方式可以为采用ORB算法提取ORB描述子(该提取方式较慢),将ORG描述子作为关键点的描述子;描述子提取方式还可以为提取关键点位置预设范围内的原始像素值(该提取方式较快,但效果较差),将关键点位置预设范围内的原始像素值作为关键点的描述子,无需进行计算,本实施例中对描述子提取方式不做限定。例如,当CPU的计算能力弱时,选择提取关键点位置预设范围内的原始像素值作为关键点描述子,当CPU的计算能力强时,选择采用ORG算法提取ORG描述子作为关键点的描述子。需要说明的是,本实施例对描述子的提取方法不做限制。
上述根据第一硬件参数信息的不同,选择不同的关键点描述子提取方式,使得在第一硬件参数信息不同时,提取关键点描述子的方式更灵活。
S204、根据图像中关键点的位置和每个关键点的描述子,确定电子设备的实时姿态估计。
该S204可以通过以下几种可能的实时方式来实现:
第一种可能的实时方式:参见图3,该可能的实时方式包括如下步骤:
S301、将实时获取的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中关键点的位置和每个关键点的描述子。
具体的,实时获取到的图像与前一帧的图像发生了位移和旋转,即实时获取到的图像中关键点的位置与前一帧的图像中的同一关键点的位置不同,但是,不同时刻的图像中同一关键点的位置是相关联的。
在上述实施例的基础上,可选的,上述S301具体包括:
使用与第一硬件参数信息匹配的图像特征关联算法,将实时获取到的图像的图像特征与前一帧图像的图像特征相关联。
具体的,根据上述电子设备的第一硬件参数信息(主要参考CPU的计算能力),可以选择与第一硬件参数信息匹配的图像特征关联算法。可选的,图像特征关联算法可以为基于光流跟踪算法直接从前一帧的图像中的关键点的位置得到对应的实时的图像中的关键点的位置(速度相对较快),图像特征关联算法还可以为基于局部匹配算法获得与实时的图像中的关键点匹配的前一帧图像中的关键点(速度相对较慢但比较准确)。具体的,将前一帧图像、前一帧图像的其中任意一个关键点的位置及实时获取到的图像作为光流跟踪算法的输入,利用光流跟踪算法计算得到上述任意一个关键点在实时获取到的图像中对应的关键点的位置,使得实时获取到的图像的图像特征与前一帧图像的图像特征相关联。另外,将前一帧图像的所有图像特征、实时获取到的图像的其中任意一个关键点的位置及任意一个关键点对应的描述子作为局部匹配算法的输入,利用局部匹配算法输出前一帧图像中与上述任意一个关键点匹配的关键点,如果没有输出相匹配的关键点,把实时获取到的图像中的该关键点舍弃。例如,当CPU的计算能力弱时,可以选择基于光流跟踪算法将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,而当CPU的计算能力较强时,可以选择基于局部匹配算法将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,而当CPU的计算能力更强时,可以同时选择上述两种算法将实时获取到的图像的图像特征与前一帧图像的图像特征相关联。
上述根据第一硬件参数信息的不同,选择不同的图像特征关联算法,使得实时获取到的图像的图像特征的关键点与前一帧图像的图像特征中的关键点进行匹配,而CPU的计算能力足够强时,两种图像特征关联算法同时操作,使得实时获取到的图像的图像特征与前一帧图像的图像特征中匹配更多的关键点,使实时获取到的图像的图像特征与前一帧图像的图像特征匹配效果更好,即实时获取到的图像的图像特征与前一帧图像的图像特征关联性更好。
S302、至少将相关联的图像特征作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
具体的,上述观测量为measurement的直译。
上述观测误差为在观测过程中,相关联的图像特征作为观测量所引起的误差。
本实施例中采用相关联的图像特征作为观测量,通过与电子设备的第一硬件参数信息匹配的目标定位算法最小化观测误差,使得本实施例提供的位姿确定方法可以跨平台使用。
第二种可能的实时方式:参见图4,该可能的实时方式包括如下步骤:
S401、将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中的关键点的位置和每个关键点的描述子。
如何将实时获取到的图像的图像特征与前一帧图像的图像特征相关联的具体过程参照上述S301的陈述,这里不再赘述。
S402、至少将相关联的图像特征作为观测量,得到观测误差。
具体的,观测误差的陈述参见上述S302,这里不再赘述。
S403、获取前一帧图像的三维平移量和三维旋转量。
可选的,可以采用比例正交投影迭代变换(Pose from Orthography and Scalingwith Iterations,POSIT)算法来获取前一帧图像的三维平移量和三维旋转量,当然,还可以采用其他算法来获取前一帧图像的三维平移量和三维旋转量。需要说明的是,本实施例对采用什么算法获取前一帧图像的三维平移量和三维旋转量不做限定。
S404、通过前一帧图像的三维平移量和三维旋转量投影与实时获取到的图像估计得到前一帧图像与实时获取到的图像的第一估计二维平移量。
可选的,第一估计二维平移量的获取方式包括但不限于:通过前一帧图像的三维平移量和三维旋转量投影与实时获取到的图像估计得到前一帧图像与实时获取到的图像的第一估计二维平移量。
S405、通过图像跟踪算法估计得到实时获取到的图像与前一帧图像的第二估计二维平移量。
可选的,第二估计二维平移量的获取方式包括但不限于:通过图像跟踪算法估计得到实时获取到的图像与前一帧图像的第二估计二维平移量。
S406、根据第一估计二维平移量与第二估计二维平移量确定第一误差。
具体的,可以将第一估计二维平移量和第二估计二维平移量的平方差作为第一误差。
S407、根据目标定位算法,通过第一误差与观测误差,得到电子设备的实时姿态估计。
具体的,电子设备可以根据目标定位算法,将第一误差与观测误差之和最小化,第一误差与观测误差之和最小时对应的姿态估计即为得到的电子设备的实时姿态估计。
本实施例提供的位姿确定方法,通过前一帧图像的三维平移量和三维旋转量投影与实时获取到的图像估计得到第一估计二维平移量,以及通过图像跟踪算法估计得到第二估计二维平移量,然后将第一估计二维平移量与第二估计二维平移量的平方差作为第一误差,第一误差与观测误差的和最小时对应的姿态估计即为电子设备的实时姿态估计。本实施例中为观测误差增加一个误差项,即作为观测误差的一个约束项,使得得到的电子设备的实时姿态估计更加精准,提升了实时定位的稳定性。
在上述实施例的基础上,该方法还可以通过实时电子设备的惯性测量单元获取加速度信息和角速度信息,将加速度信息和角速度信息与视觉传感器获取的图像的图像特征进行时间同步;相应的,上述至少将相关联的图像特征作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计的具体实现方式可以是:将时间同步后的图像特征、加速度信息和角速度信息组合作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
具体的,惯性测量单元(Inertial measurement unit,IMU)可以为用于测量物体三轴姿态角(或角速度)以及加速度的装置。其中,IMU可以包括三个单轴的加速度计和三个单轴的陀螺计,加速度计检测物体在载体坐标系统独立三轴的加速度信息,而陀螺计检测载体相对于导航坐标系的角速度信息,即测量物体在三维空间中的角速度和加速度。
将加速度信息和角速度信息与图像特征进行时间同步,具体为,加速度信息、角速度信息与图像特征均为实时进行采集的,将相同时间段内采集到的加速度信息、角速度信息与图像特征进行打包。例如,1s提取30帧图像的图像特征,而1s采集60个加速度信息和角速度信息,那么将同一个时间段内的1帧图像的图像特征和2个加速度信息和角速度信息打包。将时间同步后的图像特征及加速度信息和角速度信息组合作为观测量,即为将打包好的同一时间段内的图像特征及加速度信息和角速度信息作为观测量。本实施例中,观测误差包括图像特征误差和IMU误差,图像特征误差包括历史时刻中至少一个时刻得到的图像中关键点的位置与当前时刻图像中相应关键点的实际位置的距离,其中,历史时刻中至少一个时刻是指当前时刻之前的任意时刻中的至少一个时刻。IMU误差包括电子设备的实时平移量与通过IMU获得的平移量的差值、及电子设备的实时旋转量与通过IMU获得的旋转量的差值。
本实施例提供的位姿确定方法,将IMU的加速度信息和角速度信息与图像特征同步后组合作为观测量,然后通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。本实施例中将IMU的加速度信息和角速度信息与图像特征同步后组合作为观测量,采用IMU误差和图像特征误差获得电子设备的实时姿态估计,使得得到的电子设备的实时姿态估计更加精准,提升了实时定位的稳定性。
在上述实施例的基础上,可选的,至少将相关联的图像特征作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计包括:
将惯性测量单元数据信息中的偏置和噪声幅值、惯性测量单元数据信息的时间戳与图像的时间戳之间的动态延迟时间、电子设备的外参、第二硬件参数信息中至少一个作为目标定位算法的估计量,最小化观测误差,得到电子设备的实时姿态估计;其中,电子设备的外参包括视觉传感器与惯性测量单元的相对姿态。
具体的,目标定位算法的估计量为目标定位算法中目标函数的因变量。
具体的,对于不同型号的电子设备,IMU数据信息中的偏置和噪声幅值是不同的,这会影响目标定位算法的定位效果,因此,目标定位算法在初始化时需要将电子设备静止预设时长(如1s),用于估计IMU的偏置和噪声幅值的初始值,这样使得IMU的偏置和噪声幅值作为目标定位算法的估计量时,能够更加精确的得到电子设备的实时姿态估计。
具体的,由于电子设备的数据为通过硬件获取的原因,电子设备的IMU数据信息的时间戳(IMU的加速度计数据信息和陀螺仪数据信息的时间戳相同)与图像的时间戳之间存在有动态延迟时间,将惯性测量单元数据信息的时间戳与图像的时间戳之间的动态延迟时间作为目标定位算法的估计量时,能够更加精确的得到电子设备的实时姿态估计。
可选的,电子设备的外参可以包括电子设备的视觉传感器与IMU的相对姿态。将电子设备的视觉传感器与IMU的相对姿态作为目标定位算法的估计量时,能够更加精确的得到电子设备的实时姿态估计。
具体的,第二硬件参数信息可以包括硬件参数数值未知的硬件参数信息。可选的,第二硬件参数信息可以包括卷帘时间。将卷帘时间作为目标定位算法的估计量时,能够更加精确的得到电子设备的实时姿态估计。
本实施例提供的位姿确定方法,将惯性测量单元数据信息中的偏置和噪声幅值、惯性测量单元的时间戳与图像的时间戳之间的动态延迟时间、电子设备的外参、第二硬件参数信息中至少一个作为目标定位算法的估计量,每一个估计量均可以使得得到的电子设备的实时姿态估计更加精确,多个估计量结合可以进一步提高电子设备的实时姿态估计的精确度。
在上述实施例的基础上,可选的,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计包括:
将电子设备的视觉传感器的内参作为目标定位算法的随机变量,计算观测误差的分布,将观测误差的分布中最小值所对应的姿态作为电子设备的实时姿态估计;其中,电子设备的视觉传感器的内参包括电子设备的视觉传感器的焦距、光心位置中的至少一个;其中,随机变量服从高斯分布。
具体的,将电子设备的视觉传感器的内参作为目标定位算法的随机变量,随机变量服从高斯分布,通过电子设备的视觉传感器的内参服从的高斯分布计算观测误差的分布,然后从得到的观测误差的分布中挑选最小值,最小值所对应的姿态即为电子设备的实时姿态估计。
本实施例提供的位姿确定方法,通过电子设备的视觉传感器的内参的分布得到观测误差的分布,从观测误差的分布中挑选最小值,最小值所对应的姿态即为电子设备的实时姿态估计。由电子设备的视觉传感器的内参的分布得到电子设备的实时姿态估计更加精确。
应该理解的是,虽然图1-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图5为一个实施例提供的位姿确定装置的结构示意图。如图5所示,该装置包括:第一获取模块11、匹配模块12、第二获取模块13。
具体的,第一获取模块11,用于获取电子设备的第一硬件参数信息;
匹配模块12,用于将第一硬件参数信息与定位算法进行匹配,得到第一硬件参数信息所匹配的目标定位算法;
第二获取模块13,用于利用目标定位算法实时获取电子设备的实时姿态估计。
本实施例提供的位姿确定装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
图6为另一个实施例提供的位姿确定装置的结构示意图。在上述图5所示实施例的基础上,如图6所示,上述第二获取模块13包括:获取单元131、第一提取单元132、第二提取单元133、确定单元134。
具体的,获取单元131,用于通过电子设备的视觉传感器实时获取图像;
第一提取单元132,用于提取图像中关键点的位置;
第二提取单元133,用于使用与第一硬件参数信息匹配的描述子提取方式,提取关键点的描述子;
确定单元134,用于根据图像中关键点的位置和每个关键点的描述子,确定电子设备的实时姿态估计。
本实施例提供的位姿确定装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述实施例的基础上,上述确定单元134还用于将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中关键点的位置和每个关键点的描述子;至少将相关联的图像特征作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
本实施例提供的位姿确定装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
可选的,上述确定单元134还用于使用与第一硬件参数信息匹配的图像特征关联算法,将实时获取到的图像的图像特征与前一帧图像的图像特征相关联。
本实施例提供的位姿确定装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述实施例的基础上,上述确定单元134还用于将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中的关键点的位置和每个关键点的描述子;至少将相关联的图像特征作为观测量,得到观测误差;获取前一帧图像的三维平移量和三维旋转量;通过前一帧图像的三维平移量和三维旋转量投影与实时获取到的图像估计得到前一帧图像与实时获取到的图像的第一估计二维平移量;通过图像跟踪算法估计得到实时获取到的图像与前一帧图像的第二估计二维平移量;根据第一估计二维平移量与第二估计二维平移量确定第一误差;根据目标定位算法,通过第一误差与观测误差,得到电子设备的实时姿态估计。
本实施例提供的位姿确定装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述实施例的基础上,该装置还包括:同步模块。
具体的,同步模块,用于实时通过电子设备的惯性测量单元获取加速度信息和角速度信息,将加速度信息和角速度信息与视觉传感器获取的图像的图像特征进行时间同步;
相应的,上述确定单元134还用于将时间同步后的图像特征、加速度信息和角速度信息组合作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
本实施例提供的位姿确定装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
可选的,上述确定单元134还用于将惯性测量单元数据信息中的偏置和噪声幅值、惯性测量单元的时间戳与图像的时间戳之间的动态延迟时间、电子设备的外参、第二硬件参数信息中至少一个作为目标定位算法的估计量,最小化观测误差,得到电子设备的实时姿态估计;其中,电子设备的外参包括视觉传感器与惯性测量单元的相对姿态。
本实施例提供的位姿确定装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
可选的,上述确定单元134还用于将电子设备的视觉传感器的内参作为目标定位算法的随机变量,计算观测误差的分布,将观测误差的分布中最小值所对应的姿态作为电子设备的实时姿态估计;其中,电子设备的视觉传感器的内参包括电子设备的视觉传感器的焦距、光心位置中的至少一个;其中,随机变量服从高斯分布。
本实施例提供的位姿确定装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
关于位姿确定装置的具体限定可以参见上文中对于位姿确定方法的限定,在此不再赘述。上述位姿确定装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于电子设备中的处理器中,也可以以软件形式存储于电子设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种电子设备,其内部结构图可以如图7所示。该电子设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该电子设备的处理器用于提供计算和控制能力。该电子设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该电子设备的网络接口用于与外部的电子设备通过网络连接通信。该电子设备被处理器执行时以实现一种位姿确定方法。该电子设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该电子设备的输入装置可以是显示屏上覆盖的触摸层,也可以是电子设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种电子设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取电子设备的第一硬件参数信息;将第一硬件参数信息与定位算法进行匹配,得到第一硬件参数信息所匹配的目标定位算法;利用目标定位算法实时获取电子设备的实时姿态估计。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
通过电子设备的视觉传感器实时获取图像;提取图像中关键点的位置;使用与第一硬件参数信息匹配的描述子提取方式,提取关键点的描述子;根据图像中关键点的位置和每个关键点的描述子,确定电子设备的实时姿态估计。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中关键点的位置和每个关键点的描述子;至少将相关联的图像特征作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
使用与第一硬件参数信息匹配的图像特征关联算法,采用选择的图像特征关联算法将实时获取到的图像的图像特征与前一帧图像的图像特征相关联。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中的关键点的位置和每个关键点的描述子;至少将相关联的图像特征作为观测量,得到观测误差;获取前一帧图像的三维平移量和三维旋转量;通过前一帧图像的三维平移量和三维旋转量投影与实时获取到的图像估计得到前一帧图像与实时获取到的图像的第一估计二维平移量;通过图像跟踪算法估计得到实时获取到的图像与前一帧图像的第二估计二维平移量;根据第一估计二维平移量与第二估计二维平移量确定第一误差;根据目标定位算法,通过第一误差与观测误差,得到电子设备的实时姿态估计。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
实时通过电子设备的惯性测量单元获取加速度信息和角速度信息,将加速度信息和角速度信息与视觉传感器获取的图像的图像特征进行时间同步;将时间同步后的图像特征、加速度信息和角速度信息组合作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将惯性测量单元数据信息中的偏置和噪声幅值、惯性测量单元数据信息的时间戳与图像的时间戳之间的动态延迟时间、电子设备的外参、第二硬件参数信息中至少一个作为目标定位算法的估计量,最小化观测误差,得到电子设备的实时姿态估计;其中,电子设备的外参包括视觉传感器与惯性测量单元的相对姿态。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将电子设备的视觉传感器的内参作为目标定位算法的随机变量,计算观测误差的分布,将观测误差的分布中最小值所对应的姿态作为电子设备的实时姿态估计;其中,电子设备的视觉传感器的内参包括电子设备的视觉传感器的焦距、光心位置中的至少一个;其中,随机变量服从高斯分布。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取电子设备的第一硬件参数信息;将第一硬件参数信息与定位算法进行匹配,得到第一硬件参数信息所匹配的目标定位算法;利用目标定位算法实时获取电子设备的实时姿态估计。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
通过电子设备的视觉传感器实时获取图像;提取图像中关键点的位置;使用与第一硬件参数信息匹配的描述子提取方式,提取关键点的描述子;根据图像中关键点的位置和每个关键点的描述子,确定电子设备的实时姿态估计。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中关键点的位置和每个关键点的描述子;至少将相关联的图像特征作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
使用与第一硬件参数信息匹配的图像特征关联算法,采用选择的图像特征关联算法将实时获取到的图像的图像特征与前一帧图像的图像特征相关联。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,图像特征包括图像中的关键点的位置和每个关键点的描述子;至少将相关联的图像特征作为观测量,得到观测误差;获取前一帧图像的三维平移量和三维旋转量;通过前一帧图像的三维平移量和三维旋转量投影与实时获取到的图像估计得到前一帧图像与实时获取到的图像的第一估计二维平移量;通过图像跟踪算法估计得到实时获取到的图像与前一帧图像的第二估计二维平移量;根据第一估计二维平移量与第二估计二维平移量确定第一误差;根据目标定位算法,通过第一误差与观测误差,得到电子设备的实时姿态估计。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
实时通过电子设备的惯性测量单元获取加速度信息和角速度信息,将加速度信息和角速度信息与视觉传感器获取的图像的图像特征进行时间同步;将时间同步后的图像特征、加速度信息和角速度信息组合作为观测量,通过目标定位算法最小化观测误差,得到电子设备的实时姿态估计。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将惯性测量单元数据信息中的偏置和噪声幅值、惯性测量单元数据信息的时间戳与图像的时间戳之间的动态延迟时间、电子设备的外参、第二硬件参数信息中至少一个作为目标定位算法的估计量,最小化观测误差,得到电子设备的实时姿态估计;其中,电子设备的外参包括视觉传感器与惯性测量单元的相对姿态。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将电子设备的视觉传感器的内参作为目标定位算法的随机变量,计算观测误差的分布,将观测误差的分布中最小值所对应的姿态作为电子设备的实时姿态估计;其中,电子设备的视觉传感器的内参包括电子设备的视觉传感器的焦距、光心位置中的至少一个;其中,随机变量服从高斯分布。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (7)
1.一种位姿确定方法,其特征在于,所述的方法包括:
获取电子设备的第一硬件参数信息;
将所述第一硬件参数信息与定位算法进行匹配,得到所述第一硬件参数信息所匹配的目标定位算法;
通过所述电子设备的视觉传感器实时获取图像;
提取所述图像中关键点的位置;
使用与所述第一硬件参数信息匹配的描述子提取方式,提取所述关键点的描述子;
将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,所述图像特征包括图像中的关键点的位置和每个所述关键点的描述子;
将相关联的所述图像特征作为观测量,得到观测误差;
获取所述前一帧图像的三维平移量和三维旋转量;
通过所述前一帧图像的三维平移量和三维旋转量投影与实时获取到的所述图像估计得到所述前一帧图像与实时获取到的所述图像的第一估计二维平移量;
通过图像跟踪算法估计得到所述实时获取到的图像与所述前一帧图像的第二估计二维平移量;
根据所述第一估计二维平移量与所述第二估计二维平移量确定计算误差;
根据所述目标定位算法,通过所述计算误差与所述观测误差,得到所述电子设备的实时姿态估计。
2.根据权利要求1所述的方法,其特征在于,所述将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,包括:
使用与所述第一硬件参数信息匹配的图像特征关联算法,将实时获取到的所述图像的图像特征与所述前一帧图像的图像特征相关联。
3.根据权利要求1所述的方法,其特征在于,还包括:
实时通过所述电子设备的惯性测量单元获取加速度信息和角速度信息,将所述加速度信息和所述角速度信息与所述视觉传感器获取的图像的图像特征进行时间同步;
所述将相关联的所述图像特征作为观测量,包括:
将时间同步后的所述图像特征、所述加速度信息和所述角速度信息组合作为观测量。
4.根据权利要求3所述的方法,其特征在于,所述将相关联的所述图像特征作为观测量,包括:
将所述惯性测量单元数据信息中的偏置和噪声幅值、所述惯性测量单元数据信息的时间戳与视觉传感器实时获取的图像的时间戳之间的动态延迟时间、所述电子设备的外参、第二硬件参数信息中至少一个作为所述目标定位算法的估计量;其中,所述电子设备的外参包括所述视觉传感器与所述惯性测量单元的相对姿态;所述第二硬件参数信息为卷帘时间。
5.一种位姿确定装置,其特征在于,所述的装置包括:
第一获取模块,用于获取电子设备的第一硬件参数信息;
匹配模块,用于将所述第一硬件参数信息与定位算法进行匹配,得到所述第一硬件参数信息所匹配的目标定位算法;
获取单元,用于通过电子设备的视觉传感器实时获取图像;
第一提取单元,用于提取图像中关键点的位置;
第二提取单元,用于使用与第一硬件参数信息匹配的描述子提取方式,提取关键点的描述子;
确定单元,用于将实时获取到的图像的图像特征与前一帧图像的图像特征相关联,所述图像特征包括图像中的关键点的位置和每个所述关键点的描述子;将相关联的所述图像特征作为观测量,得到观测误差;获取所述前一帧图像的三维平移量和三维旋转量;通过所述前一帧图像的三维平移量和三维旋转量投影与实时获取到的所述图像估计得到所述前一帧图像与实时获取到的所述图像的第一估计二维平移量;通过图像跟踪算法估计得到所述实时获取到的图像与所述前一帧图像的第二估计二维平移量;根据所述第一估计二维平移量与所述第二估计二维平移量确定计算误差;根据所述目标定位算法,通过所述计算误差与所述观测误差,得到所述电子设备的实时姿态估计。
6.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4中任一项所述方法的步骤。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810550880.8A CN108871311B (zh) | 2018-05-31 | 2018-05-31 | 位姿确定方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810550880.8A CN108871311B (zh) | 2018-05-31 | 2018-05-31 | 位姿确定方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108871311A CN108871311A (zh) | 2018-11-23 |
CN108871311B true CN108871311B (zh) | 2021-01-19 |
Family
ID=64336286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810550880.8A Active CN108871311B (zh) | 2018-05-31 | 2018-05-31 | 位姿确定方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108871311B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109798891B (zh) * | 2019-01-25 | 2023-04-28 | 上海交通大学 | 基于高精度动作捕捉系统的惯性测量单元标定系统 |
CN109840921B (zh) * | 2019-01-29 | 2020-07-03 | 北京三快在线科技有限公司 | 无人驾驶任务结果的确定方法、装置及无人驾驶设备 |
CN110008856B (zh) * | 2019-03-20 | 2021-08-17 | 联想(北京)有限公司 | 定位方法和电子设备 |
CN112113582A (zh) * | 2019-06-21 | 2020-12-22 | 上海商汤临港智能科技有限公司 | 时间同步处理方法、电子设备及存储介质 |
CN112288803A (zh) * | 2019-07-25 | 2021-01-29 | 阿里巴巴集团控股有限公司 | 一种针对计算设备的定位方法以及装置 |
CN110689019B (zh) * | 2019-09-27 | 2022-05-24 | 中国银行股份有限公司 | Ocr识别模型的确定方法及装置 |
CN110889413A (zh) * | 2019-11-18 | 2020-03-17 | 中国银行股份有限公司 | 实现光学字符识别的终端设备确定方法及装置 |
CN111604899A (zh) * | 2020-05-15 | 2020-09-01 | 深圳国信泰富科技有限公司 | 一种高智能机器人的数据传输系统 |
CN112362084A (zh) * | 2020-11-23 | 2021-02-12 | 北京三快在线科技有限公司 | 一种数据标定方法、装置及数据标定系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014035231A1 (en) * | 2012-08-29 | 2014-03-06 | Silverlake Mobility Ecosystem Sdn Bhd | Method of pairing mobile devices |
CN104236548A (zh) * | 2014-09-12 | 2014-12-24 | 清华大学 | 一种微型无人机室内自主导航方法 |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN107707979A (zh) * | 2017-10-19 | 2018-02-16 | 广州华多网络科技有限公司 | 直播间ar定位的方法、装置、系统及可读存储介质 |
CN108090921A (zh) * | 2016-11-23 | 2018-05-29 | 中国科学院沈阳自动化研究所 | 单目视觉和imu融合的自适应室内定位方法 |
-
2018
- 2018-05-31 CN CN201810550880.8A patent/CN108871311B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014035231A1 (en) * | 2012-08-29 | 2014-03-06 | Silverlake Mobility Ecosystem Sdn Bhd | Method of pairing mobile devices |
CN104236548A (zh) * | 2014-09-12 | 2014-12-24 | 清华大学 | 一种微型无人机室内自主导航方法 |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN108090921A (zh) * | 2016-11-23 | 2018-05-29 | 中国科学院沈阳自动化研究所 | 单目视觉和imu融合的自适应室内定位方法 |
CN107707979A (zh) * | 2017-10-19 | 2018-02-16 | 广州华多网络科技有限公司 | 直播间ar定位的方法、装置、系统及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108871311A (zh) | 2018-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108871311B (zh) | 位姿确定方法和装置 | |
CN107888828B (zh) | 空间定位方法及装置、电子设备、以及存储介质 | |
US10247556B2 (en) | Method for processing feature measurements in vision-aided inertial navigation | |
EP3309751B1 (en) | Image processing device, method, and program | |
US10012504B2 (en) | Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps | |
CN105103089B (zh) | 用于基于视频输入生成准确传感器校正的系统和方法 | |
CN110211151B (zh) | 一种运动物体的追踪方法和装置 | |
US10204445B2 (en) | Information processing apparatus, method, and storage medium for determining a failure of position and orientation measurement of an image capturing device | |
Porzi et al. | Visual-inertial tracking on android for augmented reality applications | |
US11042984B2 (en) | Systems and methods for providing image depth information | |
CN111862150A (zh) | 图像跟踪的方法、装置、ar设备和计算机设备 | |
CN108827341A (zh) | 用于确定图像采集装置的惯性测量单元中的偏差的方法 | |
WO2022205750A1 (zh) | 点云数据生成方法、装置、电子设备及存储介质 | |
CN110825079A (zh) | 一种地图构建方法及装置 | |
US11245763B2 (en) | Data processing method, computer device and storage medium | |
CN108804161B (zh) | 应用的初始化方法、装置、终端和存储介质 | |
CN112629565B (zh) | 像机与惯性测量单元旋转关系校准方法、装置和设备 | |
US9245343B1 (en) | Real-time image geo-registration processing | |
CN111489376A (zh) | 跟踪交互设备的方法、装置、终端设备及存储介质 | |
CN115294280A (zh) | 三维重建方法、装置、设备、存储介质和程序产品 | |
CN115727871A (zh) | 一种轨迹质量检测方法、装置、电子设备和存储介质 | |
CN111723826B (zh) | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 | |
KR101418873B1 (ko) | 자세 측정 장치의 교정 방법, 자세 측정 장치의 교정 장치, 이를 구비한 휴대용 단말기, 이동 물체의 제어 시스템 및 컴퓨터 판독 가능한 기록 매체 | |
CN113670327A (zh) | 视觉惯性里程计初始化方法、装置、设备和存储介质 | |
CN113159197A (zh) | 一种纯旋转运动状态判定方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |