[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN103878770A - 基于速度估计的空间机器人视觉时延误差补偿方法 - Google Patents

基于速度估计的空间机器人视觉时延误差补偿方法 Download PDF

Info

Publication number
CN103878770A
CN103878770A CN201410138351.9A CN201410138351A CN103878770A CN 103878770 A CN103878770 A CN 103878770A CN 201410138351 A CN201410138351 A CN 201410138351A CN 103878770 A CN103878770 A CN 103878770A
Authority
CN
China
Prior art keywords
theta
centerdot
robot
space
time delay
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410138351.9A
Other languages
English (en)
Other versions
CN103878770B (zh
Inventor
王滨
李振宇
刘宏
赵京东
李志奇
王志超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201410138351.9A priority Critical patent/CN103878770B/zh
Publication of CN103878770A publication Critical patent/CN103878770A/zh
Application granted granted Critical
Publication of CN103878770B publication Critical patent/CN103878770B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

基于速度估计的空间机器人视觉时延误差补偿方法,解决了漂浮基座下空间机器人视觉测量时延误差的补偿问题。包括确定系统的视觉时延,建立带时延的视觉测量数据与物理真实相对位姿间的数学关系;根据带时延的视觉测量数据和机械臂的关节指令,估计当前的空间机器人末端速度;设计误差控制器,减小空间机器人末端速度的估计误差;根据校正后空间机器人末端速度估值,对当前带有时延的视觉测量数据进行补偿,得到经过补偿的视觉测量数据。本发明利用历史测量数据融合关节角速度指令估计当前空间机器人末端速度,设计估计误差控制器以减小速度估计的误差;实现漂浮基座下空间机器人精确的视觉时延补偿,有利于实现空间机器人高精度地完成精细操作任务。

Description

基于速度估计的空间机器人视觉时延误差补偿方法
技术领域
本发明涉及一种空间机器人视觉测量时延误差补偿方法。
背景技术
漂浮基座下的空间机器人(包括载体航天器和机械臂)执行空间任务时,面临的一个实际问题是其机械臂上的视觉测量系统,进行视觉信息处理时往往需要消耗较长的时间,其中一个原因是由于光照条件复杂,空间机器人所采用的视觉信息处理方法较复杂,另一个原因是能够用于空间机器人视觉信息处理的处理器计算能力往往很有限,由于视觉信息方法复杂程度和视觉信息处理设备计算能力之间的矛盾导致了视觉测量信息往往具有较大的时延,表现在视觉测量精度上就表现为具有较大的测量误差。由于视觉测量误差的存在,使空间机器人在执行目标捕获等任务时,会影响其操作精度。为了使空间机器人能够更快速、平稳的完成精细的在轨服务任务,在空间机器人系统设计过程中需要考虑空间机器人视觉时延误差的补偿问题。
目前已经有一些可用于地面固定基座机器人视觉时延误差处理的预测和估计方法。最小二乘估计是以误差的平方和最小为准则,根据观测数据估计线性模型中未知参数的一种基本参数估计方法。它的基本思路是选择估计量使模型输出与实测输出之差的平方和达到最小。这种求误差平方和的方式可以避免正负误差相抵,而且便于数学处理。卡尔曼滤波是一种线性最小方差估计,可以估计信号的过去和当前状态,甚至能估计将来的状态。卡尔曼滤波预测模型从与被提取信号有关的测量值中通过方法估计出所需信号。其中被估计信号是由白噪声激励引起的随机响应,激励源与响应之间的系统方程己知,测量量与被估计量之间的函数关系也己知。Smith预估器经常应用于地面机器人视觉时延处理。Smith预估器的作用原理是通过引入时延矫正环节,对带有测量时延的视觉数据进行补偿,从而将系统中的纯时延部分分离到整个闭环系统之外,从而提高整个控制系统的控制性能。从Smith预估器的作用原理可以看出,Smith预估器设计的基础在于必须保证能够准确的预测出被控对象在给定输入状态下的动态特性,才能够补偿掉测量信息中的时延部分,因此Smith预估器非常依赖于建立精确的数学模型。漂浮基座下的空间机器人与地面机器人不同,由于空间机器人没有固定的基座,机械臂的运动与载体航天器的运动耦合在一起,任何空间机械臂的运动都会改变载体航天器的位置和姿态,而载体航天器位置姿态的改变也会反过来影响空间机械臂的定位,因此空间机器人的动力学计算非常复杂。不仅如此,随着载体航天器燃料的不断消耗,载体航天器的质量、质心位置和惯量矩阵都不断在变化,精确的数学模型很难获得,因此经典的预测和估计方法很难在空间机器人应用中获得很好的效果。
发明内容
本发明提供一种基于速度估计的漂浮基座下空间机器人视觉时延误差补偿方法,以减小空间机器人视觉系统因时延存在而产生的视觉测量误差,有利于空间机器人基于补偿后视觉信息完成精细的空间任务。
基于速度估计的空间机器人视觉时延误差补偿方法由以下步骤完成:
步骤一、根据所采用的视觉处理算法和所应用的硬件确定视觉系统的视觉时延,建立带时延的视觉测量数据与物理真实相对位姿(测量相机与目标)间的数学关系;步骤二、根据带有时延的视觉测量数据和机械臂的关节指令,估计当前空间机器人的末端速度(见式(26));步骤三、设计误差控制器,减小空间机器人末端速度估值的误差,得到校正后空间机器人末端速度估值(见式(30));步骤四、根据校正后空间机器人末端速度估值,对当前带有时延的视觉测量数据进行补偿,得到经过补偿的视觉测量数据(见式(32))。
本发明具有以下有益效果:本发明方法通过空间机器人数学模型分析,给出了利用历史测量数据融合关节角速度指令估计当前空间机器人末端速度。本发明利用空间机器人视觉系统获得的带时延的测量数据和机械臂关节角速度指令,估计当前空间机器人末端速度,同时设计估计误差控制器,减小空间机器人末端速度估值的误差,根据得到校正后空间机器人末端速度估值,可有效地补偿由于时延引起的漂浮基座下空间机器人对目标的视觉测量误差,可保证空间机器人在轨高精度地完成精细操作任务。
本发明不需建立空间机器人精确的数学模型,利用数学模型分析得到的机械臂真实末端速度与带时延末端速度的简化关系,进行末端速度估计,并采用闭环控制的方法提高了空间机器人视觉时延误差补偿的精度;该方法避免了复杂的动力学计算,计算简单,便于实现漂浮基座下空间机器人精确的视觉时延补偿,有利于实现空间机器人高精度地完成精细操作任务,可用于空间机器人在轨维护、空间碎片清理、深空探测等空间应用领域。
附图说明
图1为本发明的视觉时延误差控制系统框图;图2为本发明的流程图;图3为本发明空间机器人系统和各坐标系示意图;图4为补偿后视觉测量的估计数据与原始测量数据和真实相对位置对比图,其中:图4a为补偿后视觉测量的估计数据与原始测量数据和真实相对位置在x轴方向的对比图,图4b为补偿后视觉测量的估计数据与原始测量数据和真实相对位置在y轴方向的对比图,图4c为为补偿后视觉测量的估计数据与原始测量数据和真实相对位置在z轴方向的对比图;
图5为补偿后视觉测量数据估计误差与未补偿前视觉测量数据时延误差的对比图,其中:图5a为补偿后视觉测量数据估计误差与未补偿前视觉测量数据时延误差在x轴方向的对比图,图5b为视觉测量数据估计误差与未补偿前视觉测量数据时延误差在y轴方向的对比图,图5c为视觉测量数据估计误差与未补偿前视觉测量数据时延误差在z轴方向的对比图。
具体实施方式
具体实施方式一:结合图1、图2和图3说明本实施方式,本实施方式由以下步骤完成:一、根据所采用的视觉处理算法和所应用的硬件确定视觉系统的时延,建立带时延的视觉测量数据与物理真实相对位姿(测量相机与目标)间的数学关系;二、根据带有时延的视觉测量数据和机械臂的关节指令,估计当前空间机器人的末端速度;三、设计误差控制器,减小空间机器人末端速度估值的误差,得到校正后空间机器人末端速度估值;四、根据校正后空间机器人末端速度估值,对当前带有时延的视觉测量数据进行补偿,得到经过补偿的视觉测量数据。
具体实施方式二:本实施方式与具体实施方式一的不同点是:本实施方式在步骤一所述的根据所采用的视觉处理算法和所应用的硬件确定视觉系统的时延,建立带时延的视觉测量数据与物理真实相对位姿(测量相机与目标)间的数学关系为:根据所采用的视觉信息处理方法和所应用的硬件平台确定整个视觉测量环节引起的时延为m个周期,若系统每个周期的时长为ts,则空间机器人系统的视觉时延Td为:
Td=m×ts        (1)
定义空间机器人k时刻的视觉测量信息Dv(k)和真实距离信息Dr(k)为
Dv(k)=[xv(k)yv(k)zv(k)αv(k)βv(k)γv(k)]T      (2)
Dr(k)=[xr(k)yr(k)zr(k)αr(k)βr(k)γr(k)]T      (3)
其中k为通用时刻,x(k),y(k),z(k)为相对位置信息,α(k),β(k),γ(k)为描述相对位姿的欧拉角,空间机器人视觉测量信息Dv(k)和真实距离信息Dr(k)间的关系为
Dr(k)=Dv(k+m)       (4)
k表示任意时刻,m表示时延。
若当前时刻为N,视觉测量信息为Dv(N),则可知道Dr(N-m)之前的真实距离信息都可由过去时刻的视觉测量数据直接得到。定义真实速度信息Vr(k)为
V r ( k ) = x · r ( k ) y · r ( k ) z · r ( k ) α · r ( k ) β · r ( k ) γ · r ( k ) T - - - ( 5 )
可以由Dr(k+1)和Dr(k)计算得到
V r ( k ) = D r ( k + 1 ) - D r ( k ) t s - - - ( 6 )
因此空间机器人的真实速度信息Vr(N-m-1)和Vr(N-m-1)之前的真实速度信息也可以通过计算得到,则此时真实的距离信息Dk(N)为
D r ( N ) = D v ( N ) + t s × Σ i = 1 m V r ( N - i ) - - - ( 7 )
具体实施方式三:本实施方式与具体实施方式一或二的不同点是:本实施方式在步骤二所述的根据带有时延的视觉测量数据和机械臂的关节指令,估计当前空间机器人的末端速度,其过程为:
利用带有时延的视觉测量数据,可得到真实速度序列
Figure BDA0000487995810000044
的估值序列
Figure BDA0000487995810000045
则可通过速度估值序列对当前的视觉测量信息Dv(N)进行补偿,式(7)可改写为:
D ~ r ( N ) = D v ( N ) + t s × Σ i = 1 m V ~ r ( N - i ) - - - ( 8 )
从而得到当前的真实距离信息的估计值
下面将带有时延的空间机器人视觉测量数据与机械臂的关节指令相结合,构造出当前时刻的空间机器人末端速度的估值。
由于处于零重力状态下的空间机器人满足动量守恒和角动量守恒,可依据此建立空间机器人关节运动状态与末端效应器广义速度间的数学关系,满足方程:
v e ω e = J g ( Ψ 0 , Θ , m i , I i ) Θ · = J g _ v J g _ ω Θ · - - - ( 9 )
其中参数矩阵Jg就是空间机器人的广义雅克比矩阵,是惯量矩阵Ii、质量参数mi和机器人关节角Θ、载体航天器姿态Ψ0的函数,
Figure BDA00004879958100000411
是机器人的关节角速度。其中
v e = x · r y · r z · r T - - - ( 10 )
ω e = 0 - sin α r cos α r cos β r 0 cos α r sin α r cos β r 1 0 - sin β r α · r β · r γ · r - - - ( 11 )
ve和ωe分别是空间机器人末端执行器的线速度和角速度,
Figure BDA0000487995810000058
Figure BDA0000487995810000059
为空间机器人末端姿态欧拉角的微分。
将广义雅可比矩阵进行展开,考虑空间机器人的末端广义速度
v e ω e = Σ i = 1 n J gi θ i - - - ( 12 )
其中Jgi是广义雅克比矩阵的第i列。
因空间机器人各运动学、动力学参数的真实值都包含在带时延的测量数据中,定义M时刻在当前时刻N的邻域内,将Jgi(M)展开为:
J gi ( M ) = J gi ( N ) + Σ i = 1 n Σ j = 1 ∞ 1 j ! ∂ j J gi ∂ θ i j [ θ i ( M ) - θ i ( N ) ] j + E Ji ′ ( M ) - - - ( 13 )
其中E'Ji(M)为因载体姿态变化引起的误差。仅保留其中的一次项,进一步变形为
J gi ( M ) = J gi ( N ) + Σ i = 1 n ∂ J gi ( N ) ∂ θ i [ θ i ( M ) - θ i ( N ) ] + E Ji ( M ) E Ji ( M ) = Σ i = 1 n Σ j = 2 ∞ 1 j ! ∂ j J gi ( N ) ∂ θ i j [ θ i ( M ) - θ i ( N ) ] j + E Ji ′ ( M ) - - - ( 14 )
此时M时刻的空间机器人末端速度可以表示为
v e ( M ) ω e ( M ) = Σ i = 1 n J gi ( M ) θ · i ( M ) = J g ( N ) θ · ( M ) + ΔJ N ( M ) θ · ( M ) + E J ( M ) θ · ( M ) - - - ( 15 )
其中
ΔJ N ( M ) = [ ∂ J g 1 ( N ) ∂ θ 1 [ θ 1 ( M ) - θ 1 ( N ) ] · · · ∂ J gn ( N ) ∂ θ n [ θ n ( M ) - θ n ( N ) ] ] - - - ( 16 )
M时刻的空间机器人关节角速度表述为
θ · ( M ) = θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E θ ( M ) - - - ( 17 )
其中
E θ ( M ) = θ · ( M ) - θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) - - - ( 18 )
由于空间机器人运动时,关节角速度变化比较慢,所以公式错误!未找到引用源。第一项为M时刻空间机器人关节角速度的主要部分,Eθ(M)为与加速度相关的余项;
将式(17)带入式(15),得M时刻的空间机器人末端速度表示为:
v e ( M ) ω e ( M ) = Σ i = 1 n J gi ( M ) θ · i ( M ) = θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 J g ( N ) θ · ( N ) + ΔJ N ( M ) θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E V ( M ) = θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 v e ( N ) ω e ( N ) + ΔJ N ( M ) θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E V ( M ) - - - ( 19 )
其中
E V ( M ) = J g ( N ) E θ ( M ) + ΔJ ( M ) E θ + E J ( M ) θ · ( M ) - - - ( 20 )
当前时刻为N时刻,视觉测量时延为P个采样周期,根据式(19),得N-P时刻的末端速度为:
v e ( N - P ) ω e ( N - P ) = θ · ( N - P ) · θ · ( N ) | θ · ( N ) | 2 2 v e ( N ) ω e ( N ) + ΔJ N ( N - P ) θ · ( N - P ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E V ( N - P ) - - - ( 21 )
根据式(19),得N-P-1时刻的末端速度为:
v e ( N - P - 1 ) ω e ( N - P - 1 ) = θ · ( N - P - 1 ) · θ · ( N ) | θ · ( N ) | 2 2 v e ( N ) ω e ( N ) + ΔJ N ( N - P - 1 ) θ · ( N - P - 1 ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E V ( N - P - 1 ) - - - ( 22 )
而N-P-1时刻对于N时刻的目标粗估计矩阵△JN可表示为:
ΔJ N ( N - P - 1 ) = [ ∂ J g 1 ( N ) ∂ θ 1 [ θ 1 ( N - P - 1 ) - θ 1 ( N ) ] · · · ∂ J gn ( N ) ∂ θ n [ θ n ( N - P - 1 ) θ n ( N ) ] ] [ θ 1 ( N - P - 1 ) - θ 1 ( N ) ] · [ θ 1 ( N - P ) - θ 1 ( N ) ] | [ θ 1 ( N - P ) - ] θ 1 ( N ) ] | 2 2 ΔJ N ( N - P ) + T ΔJ - - - ( 23 )
其中T△J为余项。根据以上的结论可以得到当前末端速度为
v e ( N ) ω e ( N ) = - β α 1 ( 1 - β ) v e ( N - P ) ω e ( N - P ) + 1 α 2 ( 1 - β ) v e ( N - P - 1 ) ω e ( N - P - 1 ) + ΔE - - - ( 24 )
其中
β = [ θ 1 ( N - P - 1 ) - θ 1 ( N ) ] · [ θ 1 ( N - P ) - θ 1 ( N ) ] | [ θ 1 ( N - P ) - θ 1 ( N ) ] | 2 2 α 1 = θ · ( N - P ) · θ · ( N ) | θ · | 2 2 α 2 = θ · ( N - P - 1 ) · θ · ( N ) | θ · ( N ) | 2 2 - - - ( 25 )
为了方便,可称α1、α2为二阶线性估计系数,β为状态差异项。忽略高阶误差△E,此时末端速度可以近似计算为
v ~ e ( N ) ω ~ e ( N ) = - β α 1 ( 1 - β ) v e ( N - P ) ω e ( N - P ) + 1 α 2 ( 1 - β ) v e ( N - P - 1 ) ω e ( N - P - 1 ) - - - ( 26 )
此时的估计误差为
ΔE = - β α 1 ( 1 - β ) E V ( N - P ) + 1 α 2 ( 1 - β ) [ T ΔJ θ · ( N ) + E V ( N - P - 1 ) ] - - - ( 27 )
此时的估计速度可以计算为
V ~ r ( k ) = x · r ( k ) y · r ( k ) z · r ( k ) α · r ( k ) β · r ( k ) γ · r ( k ) T v e = 0 - sin α r cos α r cos β r 0 cos α r sin α r cos β r 1 0 - sin β r - 1 ω e . - - - ( 28 )
在测量时延较小、空间机器人运动较平稳的情况下,直接进行估计的误差△E应该很小,而在其他情况下估计误差△E也可能较大。针对估计误差较大的特殊情况,设计一个误差控制器,对估计值进行实时的校正,从而提高估计精度。
具体实施方式四:本实施方式与具体实施方式三的不同点是:本实施方式在步骤三所述的误差控制器设计为:将步骤二所述的估计速度序列的过程看作一个带有误差的超前环节:
P ( s ) = e ~ st s = e st s [ 1 + H Δ ( s ) ] - - - ( 29 )
其中
Figure BDA0000487995810000085
为超前环节的误差传递函数,视觉时延误差控制系统输出的传递函数为:
Y ( s ) = e - st s e ~ st s + G ( s ) e - st s 1 + G ( s ) e st s V r ( s ) = V r ( s ) + H Δ ( s ) 1 + G ( s ) e - st s V r ( s ) - - - ( 30 )
其中Vr(s)为机器人末端速度的真实值,Y(s)为校正后机器人末端速度估值,G(s)为误差控制器。
系统的估计误差传递函数为:
E ( s ) - H Δ ( s ) e - st s - G ( s ) e - 2 st s 1 + G ( s ) e - s t s V r ( s ) - - - ( 31 )
通过极点配置,设计使E(s)稳定的误差控制器G(s),估计误差E(t)随时间逐渐收敛,校正后机器人末端速度估值逐渐趋近于速度真实值。
具体实施方式五:本实施方式与具体实施方式四的不同点是:本实施方式在步骤四所述的所述的根据校正后空间机器人末端速度估值,对当前带有时延的视觉测量数据进行补偿,经过补偿的视觉测量数据计算如下:
D ~ r ( N ) = D v ( N ) + t s × Σ i = 1 m Y ( N - i ) - - - ( 32 )
其中Y(N-i)是步骤四得出的校正后空间机器人末端速度估值,至此完成了视觉时延误差的补偿。
本发明说明书中未做详细描述的内容属于本领域专业技术人员公知的现有技术。
实施例
结合图1、图2、图3说明本实施例,实验系统由空间机器人、目标卫星组成,空间机器人包括六自由度机械臂和载体航天器,机械臂末端安装相机。机械臂带相机跟踪接近目标星,目标卫星以4mm/s的速度沿机械臂末端Z轴方向运动。
为建立仿真系统,载体航天器和六自由度机械臂的运动学和动力学参数如表1所示
表1.空间机器人参数
Figure BDA0000487995810000091
空间机器人的视觉时延误差补偿步骤为:
步骤一、根据所采用的视觉信息处理方法和所应用的硬件环境确定视觉系统的时延,根据公式错误!未找到引用源。建立真实距离信息和视觉测量信息间的数学关系。
步骤二、利用公式(26)计算当前时刻空间机器人末端速度估计。
步骤三、根据公式(30)设计视觉时延误差控制器,经控制器输出,得到校正后空间机器人末端速度估值。
步骤四、利用公式(32)计算补偿后的视觉测量数据。
所设计空间机器人视觉时延误差补偿实际效果如图4、图5所示。由图4的补偿后视觉测量的估计数据与原始测量数据和真实相对位置对比图,可以看出,由于视觉时延的存在,在X、Y和Z三个方向上,视觉系统对目标的测量值与真实值存在较大的误差,经过误差补偿,视觉测量的估计数据非常接近真实值。由图5的补偿后视觉测量数据估计误差与未补偿前视觉测量数据时延误差的对比图,可以看出,补偿前视觉测量与真实值的最大误差,在X方向由18mm减小到7mm,在Z向由38mm减小到8mm,可以看出本发明的这种时延补偿方法,可以明显减小漂浮基座下空间机器人由于时延引起的视觉测量误差,有利于更好地保证空间机器人在轨高精度地完成精细操作任务的要求,并且整个过程计算简单,不需要建立空间机器人精确的数学模型,不需进行复杂的动力学计算,能满足工程实际需求。

Claims (5)

1.一种基于速度估计的空间机器人视觉时延误差补偿方法,其特征在于:所述方法由以下步骤完成:
步骤一、根据所采用的视觉处理算法和所应用的硬件确定视觉系统的视觉时延,建立带时延的视觉测量数据与物理真实相对位姿间的数学关系;
步骤二、根据带有时延的视觉测量数据和机械臂的关节指令,估计当前空间机器人的末端速度;
步骤三、设计误差控制器,减小空间机器人末端速度估值的误差,得到校正后空间机器人末端速度估值;
步骤四、根据校正后空间机器人末端速度估值,对当前带有时延的视觉测量数据进行补偿,得到经过补偿的视觉测量数据。
2.根据权利要求1所述的一种基于速度估计的空间机器人视觉时延误差补偿方法,其特征在于:
在步骤一中,根据所采用的视觉处理算法和所应用的硬件确定视觉系统的时延,建立带时延的视觉测量数据与物理真实相对位姿(测量相机与目标)间的数学关系,其过程为:
根据所采用的视觉信息处理方法和所应用的硬件平台确定整个视觉测量环节引起的时延为m个周期,若系统每个周期的时长为ts,则空间机器人系统的视觉时延Td为:
Td=m×ts              (1)
定义空间机器人k时刻的视觉测量信息Dv(k)和真实距离信息Dr(k)为:
Dv(k)=[xv(k)yv(k)zv(k)αv(k)βv(k)γv(k)]T   (2)
Dr(k)=[xr(k)yr(k)zr(k)αr(k)βr(k)γr(k)]T   (3)
其中k为通用时刻,x(k),y(k),z(k)为相对位置信息,α(k),β(k),γ(k)为描述相对位姿的欧拉角,空间机器人视觉测量信息Dv(k)和真实距离信息Dr(k)间的关系为:
Dr(k)=Dv(k+m)    (4)
k表示任意时刻,m表示时延;
若当前时刻为N,视觉测量信息为Dv(N),则可知道Dr(N-m)之前的真实距离信息都可由过去时刻的视觉测量数据直接得到。定义真实速度信息Vr(k)为:
V r ( k ) = x · r ( k ) y · r ( k ) z · r ( k ) α · r ( k ) β · r ( k ) γ · r ( k ) T - - - ( 5 )
由Dr(k+1)和Dr(k)计算得到
V r ( k ) = D r ( k + 1 ) - D r ( k ) t s - - - ( 6 )
空间机器人的真实速度信息Vr(N-m-1)和Vr(N-m-1)之前的真实速度信息通过计算得到:真实的距离信息Dk(N)为
D r ( N ) = D v ( N ) + t s × Σ i = 1 m V r ( N - i ) - - - ( 7 )
3.根据权利要求1或2所述的一种基于速度估计的空间机器人视觉时延误差补偿方法,其特征在于:在步骤二中,所述的根据带有时延的视觉测量数据和机械臂的关节指令,估计当前空间机器人的末端速度,其过程为:
利用带有时延的视觉测量数据,得到真实速度序列的估值序列
Figure FDA0000487995800000024
则可通过速度估值序列
Figure FDA0000487995800000025
对当前的视觉测量信息Dv(N)进行补偿,式(7)改写为:
D ~ r ( N ) = D v ( N ) + t s × Σ i = 1 m V ~ r ( N - i ) - - - ( 8 )
从而得到当前的真实距离信息的估计值
Figure FDA0000487995800000027
将带有时延的空间机器人视觉测量数据与机械臂的关节指令相结合,构造出当前时刻的空间机器人末端速度的估值;
由于处于零重力状态下的空间机器人满足动量守恒和角动量守恒,依据此建立空间机器人关节运动状态与末端效应器广义速度间的数学关系,满足方程:
v e ω e = J g ( Ψ 0 , Θ , m i , I i ) Θ · = J g _ v J g _ ω Θ · - - - ( 9 )
其中参数矩阵Jg就是空间机器人的广义雅克比矩阵,是惯量矩阵Ii、质量参数mi和机器人关节角Θ、载体航天器姿态Ψ0的函数,
Figure FDA00004879958000000211
是机器人的关节角速度;其中
v e = x · r y · r z · r T - - - ( 10 )
ω e = 0 - sin α r cos α r cos β r 0 cos α r sin α r cos β r 1 0 - sin β r α · r β · r γ · r - - - ( 11 )
ve和ωe分别是空间机器人末端执行器的线速度和角速度,
Figure FDA00004879958000000212
Figure FDA00004879958000000213
为空间机器人末端姿态欧拉角的微分;
将广义雅可比矩阵进行展开,考虑空间机器人的末端广义速度:
v e ω e = Σ i = 1 n J gi θ i - - - ( 12 )
其中Jgi是广义雅克比矩阵的第i列,θi是第i个机器人关节角;
因空间机器人各运动学、动力学参数的真实值都包含在带时延的测量数据中,定义M时刻在当前时刻N的邻域内,将Jgi(M)展开为:
J gi ( M ) = J gi ( N ) + Σ i = 1 n Σ j = 1 ∞ 1 j ! ∂ j J gi ∂ θ i j [ θ i ( M ) - θ i ( N ) ] j + E Ji ′ ( M ) - - - ( 13 )
其中E′Ji(M)为因载体姿态变化引起的误差;仅保留其中的一次项,进一步变形为
J gi ( M ) = J gi ( N ) + Σ i = 1 n ∂ J gi ( N ) ∂ θ i [ θ i ( M ) - θ i ( N ) ] + E Ji ( M ) E Ji ( M ) = Σ i = 1 n Σ j = 2 ∞ 1 j ! ∂ j J gi ( N ) ∂ θ i j [ θ i ( M ) - θ i ( N ) ] j + E Ji ′ ( M ) - - - ( 14 )
此时M时刻的空间机器人末端速度可表示为
v e ( M ) ω e ( M ) = Σ i = 1 n J gi ( M ) θ · i ( M ) = J g ( N ) θ · ( M ) + ΔJ N ( M ) θ · ( M ) + E J ( M ) θ · ( M ) - - - ( 15 )
其中
ΔJ N ( M ) = [ ∂ J g 1 ( N ) ∂ θ 1 [ θ 1 ( M ) - θ 1 ( N ) ] · · · ∂ J gn ( N ) ∂ θ n [ θ n ( M ) - θ n ( N ) ] ] - - - ( 16 )
M时刻的空间机器人关节角速度表述为:
θ · ( M ) = θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E θ ( M ) - - - ( 17 )
其中
E θ ( M ) = θ · ( M ) - θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) - - - ( 18 )
由于空间机器人运动时,关节角速度变化比较慢,所以公式(17)第一项为M时刻空间机器人关节角速度的主要部分,Eθ(M)为与加速度相关的余项;
将式(17)带入式(15),得M时刻的空间机器人末端速度表示为:
v e ( M ) ω e ( M ) = Σ i = 1 n J gi ( M ) θ · i ( M ) = θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 J g ( N ) θ · ( N ) + ΔJ N ( M ) θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E V ( M ) = θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 v e ( N ) ω e ( N ) + ΔJ N ( M ) θ · ( M ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E V ( M ) - - - ( 19 )
其中
E V ( M ) = J g ( N ) E θ ( M ) + ΔJ ( M ) E θ + E J ( M ) θ · ( M ) - - - ( 20 )
当前时刻为N时刻,视觉测量时延为P个采样周期,根据式(19),得N-P时刻的末端速度为:
v e ( N - P ) ω e ( N - P ) = θ · ( N - P ) · θ · ( N ) | θ · ( N ) | 2 2 v e ( N ) ω e ( N ) + ΔJ N ( N - P ) θ · ( N - P ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E V ( N - P ) - - - ( 21 )
根据式(19),得N-P-1时刻的末端速度为:
v e ( N - P - 1 ) ω e ( N - P - 1 ) = θ · ( N - P - 1 ) · θ · ( N ) | θ · ( N ) | 2 2 v e ( N ) ω e ( N ) + ΔJ N ( N - P - 1 ) θ · ( N - P - 1 ) · θ · ( N ) | θ · ( N ) | 2 2 θ · ( N ) + E V ( N - P - 1 ) - - - ( 22 )
而N-P-1时刻对于N时刻的目标粗估计矩阵△JN可表示为:
ΔJ N ( N - P - 1 ) = [ ∂ J g 1 ( N ) ∂ θ 1 [ θ 1 ( N - P - 1 ) - θ 1 ( N ) ] · · · ∂ J gn ( N ) ∂ θ n [ θ n ( N - P - 1 ) θ n ( N ) ] ] [ θ 1 ( N - P - 1 ) - θ 1 ( N ) ] · [ θ 1 ( N - P ) - θ 1 ( N ) ] | [ θ 1 ( N - P ) - ] θ 1 ( N ) ] | 2 2 ΔJ N ( N - P ) + T ΔJ - - - ( 23 )
其中T△J为余项,根据式(19)、式(21)和式(22),可以得到当前N时刻的末端速度为:
v e ( N ) ω e ( N ) = - β α 1 ( 1 - β ) v e ( N - P ) ω e ( N - P ) + 1 α 2 ( 1 - β ) v e ( N - P - 1 ) ω e ( N - P - 1 ) + ΔE - - - ( 24 )
其中
β = [ θ 1 ( N - P - 1 ) - θ 1 ( N ) ] · [ θ 1 ( N - P ) - θ 1 ( N ) ] | [ θ 1 ( N - P ) - θ 1 ( N ) ] | 2 2 α 1 = θ · ( N - P ) · θ · ( N ) | θ · | 2 2 α 2 = θ · ( N - P - 1 ) · θ · ( N ) | θ · ( N ) | 2 2 - - - ( 25 )
α1、α2为二阶线性估计系数,β为状态差异项;忽略高阶误差△E,此时末端速度可近似计算为
v ~ e ( N ) ω ~ e ( N ) = - β α 1 ( 1 - β ) v e ( N - P ) ω e ( N - P ) + 1 α 2 ( 1 - β ) v e ( N - P - 1 ) ω e ( N - P - 1 ) - - - ( 26 )
估计误差为:
ΔE = - β α 1 ( 1 - β ) E V ( N - P ) + 1 α 2 ( 1 - β ) [ T ΔJ θ · ( N ) + E V ( N - P - 1 ) ] - - - ( 27 )
根据式(10)和式(11),估计速度为:
V ~ r ( k ) = x · r ( k ) y · r ( k ) z · r ( k ) α · r ( k ) β · r ( k ) γ · r ( k ) T v e = 0 - sin α r cos α r cos β r 0 cos α r sin α r cos β r 1 0 - sin β r - 1 ω e . - - - ( 28 )
4.根据权利要求3所述的一种基于速度估计的空间机器人视觉时延误差补偿方法,其特征在于:在步骤三中,所述的误差控制器设计为:
将步骤二所述的估计速度序列的过程看作一个带有误差的超前环节:
P ( s ) = e ~ st s = e st s [ 1 + H Δ ( s ) ] - - - ( 29 )
其中
Figure FDA0000487995800000058
为超前环节的误差传递函数,视觉时延误差控制系统输出的传递函数为:
Y ( s ) = e - st s e ~ st s + G ( s ) e - st s 1 + G ( s ) e st s V r ( s ) = V r ( s ) + H Δ ( s ) 1 + G ( s ) e - st s V r ( s ) - - - ( 30 )
其中Vr(s)为机器人末端速度的真实值,Y(s)为校正后机器人末端速度估值,G(s)为误差控制器;
系统的估计误差传递函数为:
E ( s ) - H Δ ( s ) e - st s - G ( s ) e - 2 st s 1 + G ( s ) e - s t s V r ( s ) - - - ( 31 )
通过极点配置,设计使E(s)稳定的误差控制器G(s),估计误差E(t)随时间逐渐收敛,校正后机器人末端速度估值逐渐趋近于速度真实值。
5.根据权利要求4所述的一种基于速度估计的空间机器人视觉时延误差补偿方法,其特征在于:在步骤四中,所述的根据校正后空间机器人末端速度估值,对当前带有时延的视觉测量数据进行补偿,经过补偿的视觉测量数据
Figure FDA0000487995800000063
(N)计算如下:
D ~ r ( N ) = D v ( N ) + t s × Σ i = 1 m Y ( N - i ) - - - ( 32 )
其中Y(N-i)是步骤四得出的校正后空间机器人末端速度估值,至此完成了视觉时延误差的补偿。
CN201410138351.9A 2014-04-08 2014-04-08 基于速度估计的空间机器人视觉时延误差补偿方法 Expired - Fee Related CN103878770B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410138351.9A CN103878770B (zh) 2014-04-08 2014-04-08 基于速度估计的空间机器人视觉时延误差补偿方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410138351.9A CN103878770B (zh) 2014-04-08 2014-04-08 基于速度估计的空间机器人视觉时延误差补偿方法

Publications (2)

Publication Number Publication Date
CN103878770A true CN103878770A (zh) 2014-06-25
CN103878770B CN103878770B (zh) 2016-08-31

Family

ID=50948051

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410138351.9A Expired - Fee Related CN103878770B (zh) 2014-04-08 2014-04-08 基于速度估计的空间机器人视觉时延误差补偿方法

Country Status (1)

Country Link
CN (1) CN103878770B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408299A (zh) * 2014-11-17 2015-03-11 广东产品质量监督检验研究院 基于距离识别冗余运动学参数的机器人位置误差补偿方法
CN108267960A (zh) * 2018-02-01 2018-07-10 南阳师范学院 一种遥操作轮机器人的运动控制方法
CN108423427A (zh) * 2018-03-05 2018-08-21 菲尼克斯(南京)智能制造技术工程有限公司 真空吸取装置和方法
CN108714914A (zh) * 2018-03-19 2018-10-30 山东超越数控电子股份有限公司 一种机械臂视觉系统
CN109606753A (zh) * 2018-11-11 2019-04-12 上海宇航系统工程研究所 一种空间双臂机器人协同抓捕目标的控制方法
CN110900581A (zh) * 2019-12-27 2020-03-24 福州大学 基于RealSense相机的四自由度机械臂视觉伺服控制方法及装置
CN111051012A (zh) * 2016-07-15 2020-04-21 快砖知识产权私人有限公司 用于末端执行器控制的机器人臂运动学
WO2020220469A1 (zh) * 2019-04-30 2020-11-05 东南大学 一种光电跟踪系统视觉测量时滞补偿方法
CN112847323A (zh) * 2021-01-06 2021-05-28 中国铁建重工集团股份有限公司 机器人模型参数误差补偿方法、装置、电子设备及介质
CN113427487A (zh) * 2021-07-09 2021-09-24 华南理工大学 一种基于电磁波测距的dh参数校准方法及系统
CN113799127A (zh) * 2021-09-15 2021-12-17 华南理工大学 光学双目定位系统下六自由度机械臂无标定位姿定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60151712A (ja) * 1984-01-19 1985-08-09 Hitachi Ltd 固定3次元視覚併用ロボットハンドリング装置
US4985668A (en) * 1989-09-19 1991-01-15 Kabushiki Kaisha Kobe Seiko Sho Robot controller
CN103302668A (zh) * 2013-05-22 2013-09-18 东南大学 基于Kinect的空间遥操作机器人的控制系统及其方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60151712A (ja) * 1984-01-19 1985-08-09 Hitachi Ltd 固定3次元視覚併用ロボットハンドリング装置
US4985668A (en) * 1989-09-19 1991-01-15 Kabushiki Kaisha Kobe Seiko Sho Robot controller
CN103302668A (zh) * 2013-05-22 2013-09-18 东南大学 基于Kinect的空间遥操作机器人的控制系统及其方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
史国振: "视觉伺服空间机器人运动硬件仿真研究", 《系统仿真学报》, vol. 20, no. 13, 31 July 2008 (2008-07-31), pages 3566 - 3570 *
陈俊杰: "空问机器人遥操作克服时延影响的研究进展", 《测控技术》, vol. 26, no. 2, 28 February 2007 (2007-02-28), pages 1 - 4 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408299A (zh) * 2014-11-17 2015-03-11 广东产品质量监督检验研究院 基于距离识别冗余运动学参数的机器人位置误差补偿方法
CN111051012A (zh) * 2016-07-15 2020-04-21 快砖知识产权私人有限公司 用于末端执行器控制的机器人臂运动学
CN111051012B (zh) * 2016-07-15 2024-02-02 快砖知识产权私人有限公司 用于末端执行器控制的机器人臂运动学
CN108267960A (zh) * 2018-02-01 2018-07-10 南阳师范学院 一种遥操作轮机器人的运动控制方法
CN108423427A (zh) * 2018-03-05 2018-08-21 菲尼克斯(南京)智能制造技术工程有限公司 真空吸取装置和方法
CN108423427B (zh) * 2018-03-05 2024-10-25 菲尼克斯(南京)智能制造技术工程有限公司 真空吸取装置和方法
CN108714914A (zh) * 2018-03-19 2018-10-30 山东超越数控电子股份有限公司 一种机械臂视觉系统
CN108714914B (zh) * 2018-03-19 2021-09-07 山东超越数控电子股份有限公司 一种机械臂视觉系统
CN109606753A (zh) * 2018-11-11 2019-04-12 上海宇航系统工程研究所 一种空间双臂机器人协同抓捕目标的控制方法
CN109606753B (zh) * 2018-11-11 2022-03-29 上海宇航系统工程研究所 一种空间双臂机器人协同抓捕目标的控制方法
WO2020220469A1 (zh) * 2019-04-30 2020-11-05 东南大学 一种光电跟踪系统视觉测量时滞补偿方法
US11838636B2 (en) 2019-04-30 2023-12-05 Southeast University Method for compensating for visual-measurement time lag of electro-optical tracking system
CN110900581A (zh) * 2019-12-27 2020-03-24 福州大学 基于RealSense相机的四自由度机械臂视觉伺服控制方法及装置
CN110900581B (zh) * 2019-12-27 2023-12-22 福州大学 基于RealSense相机的四自由度机械臂视觉伺服控制方法及装置
CN112847323A (zh) * 2021-01-06 2021-05-28 中国铁建重工集团股份有限公司 机器人模型参数误差补偿方法、装置、电子设备及介质
CN113427487B (zh) * 2021-07-09 2022-03-25 华南理工大学 一种基于电磁波测距的dh参数校准方法及系统
CN113427487A (zh) * 2021-07-09 2021-09-24 华南理工大学 一种基于电磁波测距的dh参数校准方法及系统
CN113799127B (zh) * 2021-09-15 2023-05-23 华南理工大学 光学双目定位系统下六自由度机械臂无标定位姿定位方法
CN113799127A (zh) * 2021-09-15 2021-12-17 华南理工大学 光学双目定位系统下六自由度机械臂无标定位姿定位方法

Also Published As

Publication number Publication date
CN103878770B (zh) 2016-08-31

Similar Documents

Publication Publication Date Title
CN103878770A (zh) 基于速度估计的空间机器人视觉时延误差补偿方法
CN108241292B (zh) 一种基于扩张状态观测器的水下机器人滑模控制方法
CN107457783B (zh) 基于pd控制器的六自由度机械臂自适应智能检测方法
CN108227485A (zh) 一种带有执行器饱和的空间机器人自抗扰控制方法
CN107621266B (zh) 基于特征点跟踪的空间非合作目标相对导航方法
CN105096341B (zh) 基于三焦张量和关键帧策略的移动机器人位姿估计方法
CN110044385B (zh) 一种大失准角情况下的快速传递对准方法
CN110929402A (zh) 一种基于不确定分析的概率地形估计方法
CN108267952B (zh) 一种水下机器人自适应有限时间控制方法
CN109975817A (zh) 一种变电站巡检机器人定位导航方法及系统
CN108181806B (zh) 基于采样输出的空间机器人位置与姿态自抗扰控制方法
CN109655059B (zh) 一种基于θ-增量学习的视觉-惯性融合导航系统及方法
Bai et al. A novel plug-and-play factor graph method for asynchronous absolute/relative measurements fusion in multisensor positioning
CN113763549A (zh) 融合激光雷达和imu的同时定位建图方法、装置和存储介质
US11685049B2 (en) Robot localization using variance sampling
Gu et al. Dexterous obstacle-avoidance motion control of Rope Driven Snake Manipulator based on the bionic path following
CN108871322B (zh) 基于姿态角匹配的无模型船体变形测量方法
CN109764876A (zh) 无人平台的多模态融合定位方法
CN110900608B (zh) 基于最优测量构型选择的机器人运动学标定方法
CN111546344A (zh) 一种用于对准的机械臂控制方法
CN109737902B (zh) 基于坐标测量仪的工业机器人运动学标定方法
CN106055818B (zh) 一种变几何桁架模型化定位方法
Gao et al. Near-ground trajectory planning for UAVs via multi-resolution hybrid voxel-surfel map
CN113601508B (zh) 一种机器人运动控制方法、系统及机器人
Huang et al. A fast initialization method of Visual-Inertial Odometry based on monocular camera

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160831

CF01 Termination of patent right due to non-payment of annual fee