[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN109102525A - 一种基于自适应位姿估计的移动机器人跟随控制方法 - Google Patents

一种基于自适应位姿估计的移动机器人跟随控制方法 Download PDF

Info

Publication number
CN109102525A
CN109102525A CN201810795013.0A CN201810795013A CN109102525A CN 109102525 A CN109102525 A CN 109102525A CN 201810795013 A CN201810795013 A CN 201810795013A CN 109102525 A CN109102525 A CN 109102525A
Authority
CN
China
Prior art keywords
coordinate system
camera
points
pixel
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810795013.0A
Other languages
English (en)
Other versions
CN109102525B (zh
Inventor
俞立
陈旭
吴锦辉
刘安东
仇翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201810795013.0A priority Critical patent/CN109102525B/zh
Publication of CN109102525A publication Critical patent/CN109102525A/zh
Application granted granted Critical
Publication of CN109102525B publication Critical patent/CN109102525B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于自适应位姿估计的移动机器人跟随控制方法,包括以下步骤:1)建立机器人运动学模型;2)追踪特征区域;3)自主在线学习进行目标跟踪;4)提取特征区域,膨胀、腐蚀、滤波优化处理特征区域,提取特征点并自适应匹配特征点;5)匹配的特征点进行位姿估计;6)设计PID视觉伺服跟随控制器。本发明提供了一种可以有效解决特征点无法追踪或特征点缺失复杂背景下的自适应位姿估计的PID移动机器人视觉跟随控制方法。

Description

一种基于自适应位姿估计的移动机器人跟随控制方法
技术领域
本发明涉及基于视觉的移动机器人目标追踪跟随控制系统,尤其涉及的是存在输入限制下自适应位姿估计的移动机器人跟随控制方法。
背景技术
随着科学技术和控制技术的发展,计算机视觉在各个领域已有广泛的运用,视觉数据信息量丰富,处理手段丰富等特点使得基于视觉的移动机器人控制被广泛应用于科研、军事、工业以及物流等领域。机器人的位姿作为机器人运动控制中的基本问题之一,一直备受广泛关注,针对基于视觉的移动机器人目标跟随伺服控制技术的研究,不仅可以丰富移动机器人运动控制的理论成果,还可以满足多领域对运动控制技术越来越高的要求,具有重大的理论和工程意义。此外,通过引入视觉信息,延展了移动机器人的能力范围,可以有效满足人机交互的需求。
然而在实际环境中,特别是在复杂背景下,视觉信息不可避免地存在光线因素以及运动过程中抖动等各种干扰问题,给基于视觉的移动机器人路径跟踪控制带来了新的挑战。
基于自适应位姿估计的移动机器人跟随控制方法是将位姿估计系统和PID参数驱动控制系统组合起来并且设计控制器使得整个系统快速渐近稳定的控制策略。相较于其他控制方法,在线学习目标追踪自适应位姿估计方法使得机器人在复杂背景下移动时也能稳定跟踪特征点,可以处理无法追踪特征点以及特征点缺失等不确定性问题,近年来在移动机器人视觉伺服控制领域受到了普片关注。朱建章等在论文(复杂场景下实时视觉目标跟踪的若干研究)中采用协同训练框架下变权重实时压缩的目标跟踪,倪洪印等在论文(基于视频的人体检测与目标跟踪方法研究)中采用自主选择学习的单目标长期跟踪,王佳丽等在论文(基于改进在线多示例学习算法的机器人目标跟踪)中采用立体视觉在线多示例学习的机器人目标跟踪。然而,这些结果都没有利用单目视觉在线自主学习目标追踪特征点和位姿估计来设计移动机器人的PID伺服跟随控制器。并且,在实际应用中,无论是陀螺仪还是立体视觉相机,对位姿的获取存在一定的实用局限性,因此,针对单目视觉目标跟踪自适应实时位姿估计的研究是很有必要的。
发明内容
为了克服现有技术无法解决移动机器人单目相机位姿估计视觉伺服控制系统的不足,本发明提供一种基于自适应位姿估计的移动机器人跟随控制方法,通过机器人运动学建模以及像素转化计算,并在复杂背景下自主学习追踪目标物提取特征点,进行自适应匹配估计位姿,基于位姿估计结果提供了一种增量式PID移动机器人控制器的设计。
本发明解决其技术问题所采用的技术方案是:
一种基于自适应位姿估计的移动机器人跟随控制方法,所述方法包括以下步骤:
1)建立基于视觉的移动机器人模型,定义x和y为归一化后的相机横纵坐标,zc为相机在z轴的坐标,相机在相机坐标系下的速度矢量为vc和ωc分别为移动机器人的在z轴线速度和x-z平面角速度,机器人在自身坐标系下的速度矢量为vr和ωr分别为移动机器人的参考在z轴线速度和x-z平面角速度,则基于视觉的移动机器人运动学模型为:
2)追踪特征区域提取特征点;追踪特征区域,提取特征区域,在HSV颜色空间模型中将蓝色区域标注为255,其他区域标注为0进行二值化,并且利用膨胀、腐蚀、滤波优化二值化图像,获取标注为255的白色连通区域,计算连通区域的四个重心,即四个特征点;
定义四个连通区域的重心为连通区域重心计算如下:
其中,f(u,v)为像素点值,Ω为连通区域,利用公式(2)得同理计算其他三个重心点
像素坐标转换成图像坐标计算如下:
其中,dx是一个像素点占x方向的长度单位,dy是一个像素点占y方向的长度单位,u0,v0是图像中心像素坐标和图像原点像素坐标之间相差的横向和纵向像素数,利用公式(3)可将像素坐标转化为图像坐标系下的坐标同理可计算另外三个点在图像坐标系下的坐标
图像坐标转换成相机坐标计算如下:
其中,f是焦距,利用公式(4)将图像坐标转换成相机坐标系下的坐标同理计算另外三个点在相机坐标系下的坐标
3)位姿估计
步骤2)得到特征点在相机坐标系下的坐标 而世界坐标系建立在物体坐标系上,第一个特征点是物体坐标系的原点,也即世界坐标系的原点;由此,根据实际测量可得目标板上四个特征点的世界坐标
相机坐标系与世界坐标系的转换关系为:
其中,是旋转矩阵,是平移矩阵,利用公式(5)将相机坐标系的四个点与世界坐标系上的四个点对应求解出R旋转矩阵以及t平移矩阵;
利用旋转矩阵求解旋转角的计算如下:
其中,θx是相机坐标系Xc轴相对于世界坐标系Xw轴的旋转角,θy是相机坐标系Yc轴相对于世界坐标系Yw轴的旋转角,θz是相机坐标系Zc轴相对于世界坐标系Zw轴的旋转角,即相机的姿态;
利用平移矩阵计算相机的世界坐标:
其中,是相机的世界坐标位置,为了验证位姿是否正确,将第五个世界坐标系下的点坐标重投影到像素坐标系中验证位姿是否正确,重投影计算方式如下:
其中,是第五个特征点的世界坐标,(u5,v5)是重投影后的像素坐标,是第五个特征点转化到相机坐标系下的深度值,是相机内参矩阵;
4)设计PID控制器
角速度PID控制器的输入信号是像素横坐标值320,输出信号是第五个重投影点的横坐标u5,反馈信号亦是第五个重投影点的横坐标u5,角速度增量式PID算法如下:
其中,角速度PID控制器参数中Kωp是比例控制系数,Kωi是积分控制系数,Kωd是微分控制系数,epix[k]是k时刻像素误差信号;
线速度PID控制器的输入信号是500mm深度信息值,输出信号是相机到目标板的距离反馈信号亦是相机到目标板的距离线速度增量式PID算法如下:
Δv[k]=Kvp{ed[k]-ed[k-1]}+Kvied[k]+Kvd{ed[k]-2ed[k-1]+ed[k-2]} (10)
其中,线速度PID控制器参数中Kvp是比例控制系数,Kvi是积分控制系数,Kvd是微分控制系数,ed[k]是k时刻深度距离误差信号。
进一步,所述步骤2)中,追踪特征区域的步骤如下:
2.1:初始化:初始化相机并启动,手动或自动选定像素点数大于10的追踪区域,设定追踪算法的基本参数;
2.2:迭代开始:复杂背景下取第h帧时的目标区域,并均匀产生一些点,采用Lucas-Kanade追踪器追踪这些点到h+1帧,并反追踪回去得到第h帧这些点的预测位置,则偏差公式计算如下:
其中,ΔXh为欧氏距离,Xh为初试位置,为反追踪预测位置,ΔXh作为筛选追踪点的条件之一,ΔXh<10留下,否则删除;
2.3:归一化交叉相关:结合归一化交叉相关法描述两个目标的相关程度并删选相关程度不高的点,算法如下:
其中,f(u,v)为像素值,为像素均值,g(x,y)为模板像素值,为模板像素均值,n为追踪点数,NCC为相关性,NCC越大相关程度越高,NCC>0留下点,否则删除点,删选后剩下的追踪点求平移尺度中值以及缩放尺度中值以获取新的特征区域;
2.4:产生正负样本:为了提高识别精度,在线学习,使用最近邻分类器产生正负样本:
正最近邻相似度:
负最近邻相似度:
相对相似度:
其中,S(pi,pj)为(pi,pj)图像元的相似度,N是规范化的相关系数,M是目标区域,相对相似度Sr越大,则表示相似度越高,设定相对相似度大于0.2为正样本,小于0.2为负样本;
2.5:迭代更新:令h=h+1,跳转至2.2。
本发明的技术构思为:首先,建立移动机器人运动学模型以及像素的转化计算。然后,基于模型给出目标追踪自适应位姿估计的移动机器人跟随控制问题。利用追踪的目标自适应分配特征点,并采取solvePNP进行位姿估计。最后,采用增量式PID控制算法,结合位姿反馈信息以及重投影信息设计PID控制器实现实时视觉伺服机器人跟随控制。
本发明的有益效果主要表现在:通过在线学习自主追踪方式追踪目标,复杂背景下易于追踪目标物;目标物追踪不丢失,复杂背景下可以准确获取特征点,有效解决特征点无法追踪或追踪缺失的问题;目标物区域提取分割自适应匹配四个特征点,实时在线进行位姿估计,得到位姿信息,给移动机器人提供有效距离以及角度信息;给出增量式PID控制器的具体参数,有效解决机器人无法快速渐近稳定跟随的问题。
附图说明
图1是移动机器人相机模型坐标系建立示意图。
图2是一种基于自适应位姿估计的移动机器人跟随控制方法的程序框图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种基于自适应位姿估计的移动机器人跟随控制方法,包括以下步骤:
1)建立基于视觉的移动机器人模型,定义x和y为归一化后的相机横纵坐标,zc为相机在z轴的坐标,相机在相机坐标系下的速度矢量为vc和ωc分别为移动机器人的在z轴线速度和x-z平面角速度,机器人在自身坐标系下的速度矢量为vr和ωr分别为移动机器人的参考在z轴线速度和x-z平面角速度,则基于视觉的移动机器人运动学模型为:
2)追踪特征区域提取特征点;追踪特征区域,提取特征区域,在HSV颜色空间模型中将蓝色区域标注为255,其他区域标注为0进行二值化,并且利用膨胀、腐蚀、滤波优化二值化图像,获取标注为255的白色连通区域,计算连通区域的四个重心,即四个特征点;
定义四个连通区域的重心为连通区域重心计算如下:
其中,f(u,v)为像素点值,Ω1为第一个连通区域,利用公式(2)得同理计算其他三个重心点,其中Ω2为第二个连通区域,其中Ω3为第三个连通区域,其中Ω4为第四个连通区域;
像素坐标转换成图像坐标计算如下:
其中,dx是一个像素点占x方向的长度单位,dy是一个像素点占y方向的长度单位,u0,v0是图像中心像素坐标和图像原点像素坐标之间相差的横向和纵向像素数,利用公式(3)将像素坐标转化为图像坐标系下的坐标同理计算另外三个点在图像坐标系下的坐标,
图像坐标转换成相机坐标计算如下:
其中,f是焦距,利用公式(4)将图像坐标转换成相机坐标系下的坐标同理计算另三个点的相机坐标系坐标,
3)位姿估计
步骤2)得到特征点在相机坐标系下的坐标 而世界坐标系建立在物体坐标系上,第一个特征点是物体坐标系的原点,也即世界坐标系的原点;由此,根据实际测量可得目标板上四个特征点的世界坐标
相机坐标系与世界坐标系的转换关系为:
其中,是旋转矩阵,是平移矩阵,利用公式(5)将相机坐标系的四个点与世界坐标系上的四个点对应求解出R旋转矩阵以及t平移矩阵;
利用旋转矩阵求解旋转角的计算如下:
其中,θx是相机坐标系Xc轴相对于世界坐标系Xw轴的旋转角,θy是相机坐标系Yc轴相对于世界坐标系Yw轴的旋转角,θz是相机坐标系Zc轴相对于世界坐标系Zw轴的旋转角,即相机的姿态;
利用平移矩阵计算相机的世界坐标:
其中,是相机的世界坐标位置,为了验证位姿是否正确,将第五个世界坐标系下的点坐标重投影到像素坐标系中验证位姿是否正确,重投影计算方式如下:
其中,是第五个特征点的世界坐标,(u5,v5)是重投影后的像素坐标,是第五个特征点转化到相机坐标系下的深度值,是相机内参矩阵;
4)设计PID控制器
角速度PID控制器的输入信号是像素横坐标值320,输出信号是第五个重投影点的横坐标u5,反馈信号亦是第五个重投影点的横坐标u5,角速度增量式PID算法如下:
其中,角速度PID控制器参数中Kωp是比例控制系数,Kωi是积分控制系数,Kωd是微分控制系数,epix[k]是k时刻像素误差信号;
线速度PID控制器的输入信号是500mm深度信息值,输出信号是相机到目标板的距离反馈信号亦是相机到目标板的距离线速度增量式PID算法如下:
Δv[k]=Kvp{ed[k]-ed[k-1]}+Kvied[k]+Kvd{ed[k]-2ed[k-1]+ed[k-2]} (10)
其中,线速度PID控制器参数中Kvp是比例控制系数,Kvi是积分控制系数,Kvd是微分控制系数,ed[k]是k时刻深度距离误差信号。
进一步,所述步骤2)中,追踪特征区域的步骤如下:
2.1:初始化:初始化相机并启动,手动或自动选定像素点数大于10的追踪区域,设定追踪算法的基本参数;
2.2:迭代开始:复杂背景下取第h帧时的目标区域,并均匀产生一些点,采用Lucas-Kanade追踪器追踪这些点到h+1帧,并反追踪回去得到第h帧这些点的预测位置,则偏差公式计算如下:
其中,ΔXh为欧氏距离,Xh为初试位置,为反追踪预测位置,ΔXh作为筛选追踪点的条件之一,ΔXh<10留下,否则删除;
2.3:归一化交叉相关:结合归一化交叉相关法描述两个目标的相关程度并删选相关程度不高的点,算法如下:
其中,f(u,v)为像素值,为像素均值,g(x,y)为模板像素值,为模板像素均值,n为追踪点数,NCC为相关性,NCC越大相关程度越高,NCC>0留下点,否则删除点,删选后剩下的追踪点求平移尺度中值以及缩放尺度中值以获取新的特征区域;
2.4:产生正负样本:为了提高识别精度,在线学习,使用最近邻分类器产生正负样本:
正最近邻相似度:
负最近邻相似度:
相对相似度:
其中,S(pi,pj)为(pi,pj)图像元的相似度,N是规范化的相关系数,M是目标区域,相对相似度Sr越大,则表示相似度越高,设定相对相似度大于0.2为正样本,小于0.2为负样本;
2.5:迭代更新:令h=h+1,跳转至2.2。

Claims (2)

1.一种基于自适应位姿估计的移动机器人跟随控制方法,其特征在于,所述方法包括以下步骤:
1)建立基于视觉的移动机器人模型,定义x和y为归一化后的相机横纵坐标,zc为相机在z轴的坐标,相机在相机坐标系下的速度矢量为vc和ωc分别为移动机器人的在z轴线速度和x-z平面角速度,机器人在自身坐标系下的速度矢量为vr和ωr分别为移动机器人的参考在z轴线速度和x-z平面角速度,则基于视觉的移动机器人运动学模型为:
2)追踪特征区域提取特征点;追踪特征区域,提取特征区域,在HSV颜色空间模型中将蓝色区域标注为255,其他区域标注为0进行二值化,并且利用膨胀、腐蚀、滤波优化二值化图像,获取标注为255的白色连通区域,计算连通区域的四个重心,即四个特征点;
定义四个连通区域的重心为连通区域重心计算如下:
其中,f(u,v)为像素点值,Ω为连通区域,利用公式(2)得同理计算其他三个重心点
像素坐标转换成图像坐标计算如下:
其中,dx是一个像素点占x方向的长度单位,dy是一个像素点占y方向的长度单位,u0,v0是图像中心像素坐标和图像原点像素坐标之间相差的横向和纵向像素数,利用公式(3)将像素坐标转化为图像坐标系下的坐标同理计算另外三个点在图像坐标系下的坐标图像坐标转换成相机坐标计算如下:
其中,f是焦距,利用公式(4)将图像坐标转换成相机坐标系下的坐标同理计算另外三个点在相机坐标系下的坐标
3)位姿估计
步骤2)得到特征点在相机坐标系下的坐标 而世界坐标系建立在物体坐标系上,第一个特征点是物体坐标系的原点,也即世界坐标系的原点;由此,根据实际测量可得目标板上四个特征点的世界坐标
相机坐标系与世界坐标系的转换关系为:
其中,是旋转矩阵,是平移矩阵,利用公式(5)将相机坐标系的四个点与世界坐标系上的四个点对应求解出R旋转矩阵以及t平移矩阵;
利用旋转矩阵求解旋转角的计算如下:
其中,θx是相机坐标系Xc轴相对于世界坐标系Xw轴的旋转角,θy是相机坐标系Yc轴相对于世界坐标系Yw轴的旋转角,θz是相机坐标系Zc轴相对于世界坐标系Zw轴的旋转角,即相机的姿态;
利用平移矩阵计算相机的世界坐标:
其中,是相机的世界坐标位置,为了验证位姿是否正确,将第五个世界坐标系下的点坐标重投影到像素坐标系中验证位姿是否正确,重投影计算方式如下:
其中,是第五个特征点的世界坐标,(u5,v5)是重投影后的像素坐标,是第五个特征点转化到相机坐标系下的深度值,是相机内参矩阵;
4)设计PID控制器
角速度PID控制器的输入信号是像素横坐标值320,输出信号是第五个重投影点的横坐标u5,反馈信号亦是第五个重投影点的横坐标u5,角速度增量式PID算法如下:
其中,角速度PID控制器参数中Kωp是比例控制系数,Kωi是积分控制系数,Kωd是微分控制系数,epix[k]是k时刻像素误差信号;
线速度PID控制器的输入信号是500mm深度信息值,输出信号是相机到目标板的距离反馈信号亦是相机到目标板的距离线速度增量式PID算法如下:
Δv[k]=Kvp{ed[k]-ed[k-1]}+Kvied[k]+Kvd{ed[k]-2ed[k-1]+ed[k-2]} (10)
其中,线速度PID控制器参数中Kvp是比例控制系数,Kvi是积分控制系数,Kvd是微分控制系数,ed[k]是k时刻深度距离误差信号。
2.如权利要求1所述的一种基于自适应位姿估计的PID移动机器人跟随控制方法,其特征在于:所述步骤2)中,追踪特征区域的步骤如下:
2.1:初始化:初始化相机并启动,手动或自动选定像素点数大于10的追踪区域,设定追踪算法的基本参数;
2.2:迭代开始:复杂背景下取第h帧时的目标区域,并均匀产生一些点,采用Lucas-Kanade追踪器追踪这些点到h+1帧,并反追踪回去得到第h帧这些点的预测位置,则偏差公式计算如下:
其中,ΔXh为欧氏距离,Xh为初试位置,为反追踪预测位置,ΔXh作为筛选追踪点的条件之一,ΔXh<10留下,否则删除;
2.3:归一化交叉相关:结合归一化交叉相关法描述两个目标的相关程度并删选相关程度不高的点,算法如下:
其中,f(u,v)为像素值,为像素均值,g(x,y)为模板像素值,为模板像素均值,n为追踪点数,NCC为相关性,NCC越大相关程度越高,NCC>0留下点,否则删除点,删选后剩下的追踪点求平移尺度中值以及缩放尺度中值以获取新的特征区域;
2.4:产生正负样本:为了提高识别精度,在线学习,使用最近邻分类器产生正负样本:
正最近邻相似度:
负最近邻相似度:
相对相似度:
其中,S(pi,pj)为(pi,pj)图像元的相似度,N是规范化的相关系数,M是目标区域,相对相似度Sr越大,则表示相似度越高,设定相对相似度大于0.2为正样本,小于0.2为负样本;
2.5:迭代更新:令h=h+1,跳转至2.2。
CN201810795013.0A 2018-07-19 2018-07-19 一种基于自适应位姿估计的移动机器人跟随控制方法 Active CN109102525B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810795013.0A CN109102525B (zh) 2018-07-19 2018-07-19 一种基于自适应位姿估计的移动机器人跟随控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810795013.0A CN109102525B (zh) 2018-07-19 2018-07-19 一种基于自适应位姿估计的移动机器人跟随控制方法

Publications (2)

Publication Number Publication Date
CN109102525A true CN109102525A (zh) 2018-12-28
CN109102525B CN109102525B (zh) 2021-06-18

Family

ID=64846893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810795013.0A Active CN109102525B (zh) 2018-07-19 2018-07-19 一种基于自适应位姿估计的移动机器人跟随控制方法

Country Status (1)

Country Link
CN (1) CN109102525B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110293560A (zh) * 2019-01-12 2019-10-01 鲁班嫡系机器人(深圳)有限公司 机器人行为训练、规划方法、装置、系统、存储介质及设备
CN110470298A (zh) * 2019-07-04 2019-11-19 浙江工业大学 一种基于滚动时域的机器人视觉伺服位姿估计方法
CN110490908A (zh) * 2019-08-26 2019-11-22 北京华捷艾米科技有限公司 一种动态场景下小物体的位姿追踪方法及装置
CN110728715A (zh) * 2019-09-06 2020-01-24 南京工程学院 一种智能巡检机器人像机角度自适应调整方法
CN111267095A (zh) * 2020-01-14 2020-06-12 大连理工大学 一种基于双目视觉的机械臂抓取控制方法
CN111552292A (zh) * 2020-05-09 2020-08-18 沈阳建筑大学 基于视觉的移动机器人路径生成与动态目标跟踪方法
CN112184765A (zh) * 2020-09-18 2021-01-05 西北工业大学 一种基于视觉的水下航行器自主跟踪方法
CN113297997A (zh) * 2021-05-31 2021-08-24 合肥工业大学 非接触式生理检测机器人的6自由度人脸追踪方法和装置
CN113379850A (zh) * 2021-06-30 2021-09-10 深圳市银星智能科技股份有限公司 移动机器人控制方法、装置、移动机器人及存储介质
CN114162127A (zh) * 2021-12-28 2022-03-11 华南农业大学 一种基于机具位姿估计的水田无人农机路径跟踪控制方法
CN115435790A (zh) * 2022-09-06 2022-12-06 视辰信息科技(上海)有限公司 一种视觉定位与视觉里程计位姿融合的方法及系统
CN117097918A (zh) * 2023-10-19 2023-11-21 奥视(天津)科技有限公司 一种直播显示器设备及其控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732518A (zh) * 2015-01-19 2015-06-24 北京工业大学 一种基于智能机器人地面特征的ptam改进方法
CN104881044A (zh) * 2015-06-11 2015-09-02 北京理工大学 一种姿态未知的多移动机器人系统的自适应跟踪控制方法
CN105488780A (zh) * 2015-03-25 2016-04-13 遨博(北京)智能科技有限公司 一种用于工业生产线的单目视觉测距追踪装置及其追踪方法
CN205375196U (zh) * 2016-03-01 2016-07-06 河北工业大学 用于风电场巡检的群组机器人控制装置
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732518A (zh) * 2015-01-19 2015-06-24 北京工业大学 一种基于智能机器人地面特征的ptam改进方法
CN104732518B (zh) * 2015-01-19 2017-09-01 北京工业大学 一种基于智能机器人地面特征的ptam改进方法
CN105488780A (zh) * 2015-03-25 2016-04-13 遨博(北京)智能科技有限公司 一种用于工业生产线的单目视觉测距追踪装置及其追踪方法
CN104881044A (zh) * 2015-06-11 2015-09-02 北京理工大学 一种姿态未知的多移动机器人系统的自适应跟踪控制方法
CN205375196U (zh) * 2016-03-01 2016-07-06 河北工业大学 用于风电场巡检的群组机器人控制装置
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110293560A (zh) * 2019-01-12 2019-10-01 鲁班嫡系机器人(深圳)有限公司 机器人行为训练、规划方法、装置、系统、存储介质及设备
CN110470298A (zh) * 2019-07-04 2019-11-19 浙江工业大学 一种基于滚动时域的机器人视觉伺服位姿估计方法
CN110470298B (zh) * 2019-07-04 2021-02-26 浙江工业大学 一种基于滚动时域的机器人视觉伺服位姿估计方法
CN110490908A (zh) * 2019-08-26 2019-11-22 北京华捷艾米科技有限公司 一种动态场景下小物体的位姿追踪方法及装置
CN110490908B (zh) * 2019-08-26 2021-09-21 北京华捷艾米科技有限公司 一种动态场景下小物体的位姿追踪方法及装置
CN110728715A (zh) * 2019-09-06 2020-01-24 南京工程学院 一种智能巡检机器人像机角度自适应调整方法
CN111267095B (zh) * 2020-01-14 2022-03-01 大连理工大学 一种基于双目视觉的机械臂抓取控制方法
CN111267095A (zh) * 2020-01-14 2020-06-12 大连理工大学 一种基于双目视觉的机械臂抓取控制方法
CN111552292A (zh) * 2020-05-09 2020-08-18 沈阳建筑大学 基于视觉的移动机器人路径生成与动态目标跟踪方法
CN111552292B (zh) * 2020-05-09 2023-11-10 沈阳建筑大学 基于视觉的移动机器人路径生成与动态目标跟踪方法
CN112184765A (zh) * 2020-09-18 2021-01-05 西北工业大学 一种基于视觉的水下航行器自主跟踪方法
CN113297997A (zh) * 2021-05-31 2021-08-24 合肥工业大学 非接触式生理检测机器人的6自由度人脸追踪方法和装置
CN113379850A (zh) * 2021-06-30 2021-09-10 深圳市银星智能科技股份有限公司 移动机器人控制方法、装置、移动机器人及存储介质
CN113379850B (zh) * 2021-06-30 2024-01-30 深圳银星智能集团股份有限公司 移动机器人控制方法、装置、移动机器人及存储介质
CN114162127A (zh) * 2021-12-28 2022-03-11 华南农业大学 一种基于机具位姿估计的水田无人农机路径跟踪控制方法
CN114162127B (zh) * 2021-12-28 2023-06-27 华南农业大学 一种基于机具位姿估计的水田无人农机路径跟踪控制方法
CN115435790A (zh) * 2022-09-06 2022-12-06 视辰信息科技(上海)有限公司 一种视觉定位与视觉里程计位姿融合的方法及系统
CN117097918A (zh) * 2023-10-19 2023-11-21 奥视(天津)科技有限公司 一种直播显示器设备及其控制方法
CN117097918B (zh) * 2023-10-19 2024-01-09 奥视(天津)科技有限公司 一种直播显示器设备及其控制方法

Also Published As

Publication number Publication date
CN109102525B (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN109102525B (zh) 一种基于自适应位姿估计的移动机器人跟随控制方法
CN102722697B (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
CN108242079B (zh) 一种基于多特征视觉里程计和图优化模型的vslam方法
Concha et al. Visual-inertial direct SLAM
CN106055091B (zh) 一种基于深度信息和校正方式的手部姿态估计方法
Liu et al. Using unsupervised deep learning technique for monocular visual odometry
Tian et al. Research on multi-sensor fusion SLAM algorithm based on improved gmapping
Civera et al. Drift-free real-time sequential mosaicing
CN114708293A (zh) 基于深度学习点线特征和imu紧耦合的机器人运动估计方法
Shi et al. Real-time multi-modal active vision for object detection on UAVs equipped with limited field of view LiDAR and camera
CN114494150A (zh) 一种基于半直接法的单目视觉里程计的设计方法
CN117218210A (zh) 一种基于仿生眼的双目主动视觉半稠密深度估计方法
CN117367427A (zh) 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法
Lee et al. Event-and Frame-based Visual-Inertial Odometry with Adaptive Filtering based on 8-DOF Warping Uncertainty
Cheng et al. Feature-based optical flow computation
CN109903309A (zh) 一种基于角度光流法的机器人运动信息估计方法
CN115482282A (zh) 自动驾驶场景下具有多目标追踪能力的动态slam方法
CN111813131B (zh) 一种视觉导航的引导点标记方法、装置和计算机设备
Taguchi et al. Unsupervised Simultaneous Learning for Camera Re-Localization and Depth Estimation from Video
Spica et al. Active structure from motion for spherical and cylindrical targets
Tokuda et al. CNN-based Visual Servoing for Simultaneous Positioning and Flattening of Soft Fabric Parts
CN118456447B (zh) 基于视觉定位和编队预测的数据处理系统、方法及装置
Wang et al. An End-to-End Robotic Visual Localization Algorithm Based on Deep Learning
Cheng et al. Image following using the feature-based optical flow approach
Duric et al. Estimating relative vehicle motions in traffic scenes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant