CN104793620B - 基于视觉特征捆绑和强化学习理论的避障机器人 - Google Patents
基于视觉特征捆绑和强化学习理论的避障机器人 Download PDFInfo
- Publication number
- CN104793620B CN104793620B CN201510189371.3A CN201510189371A CN104793620B CN 104793620 B CN104793620 B CN 104793620B CN 201510189371 A CN201510189371 A CN 201510189371A CN 104793620 B CN104793620 B CN 104793620B
- Authority
- CN
- China
- Prior art keywords
- image
- robot
- control
- kinect
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 9
- 230000002787 reinforcement Effects 0.000 title 1
- 238000012545 processing Methods 0.000 claims abstract description 8
- 238000006243 chemical reaction Methods 0.000 claims abstract description 7
- 238000005516 engineering process Methods 0.000 claims abstract description 6
- 230000007246 mechanism Effects 0.000 claims abstract description 6
- 238000013480 data collection Methods 0.000 claims abstract description 4
- 230000004888 barrier function Effects 0.000 claims abstract 2
- 238000000034 method Methods 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 9
- 238000003709 image segmentation Methods 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 claims description 4
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 2
- 230000009471 action Effects 0.000 claims description 2
- 238000002224 dissection Methods 0.000 claims description 2
- 239000000203 mixture Substances 0.000 claims description 2
- 230000001537 neural effect Effects 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 abstract description 14
- 238000002474 experimental method Methods 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 239000000523 sample Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000016776 visual perception Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000012535 impurity Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 244000287680 Garcinia dulcis Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 102000008817 Trefoil Factor-1 Human genes 0.000 description 1
- 108010088412 Trefoil Factor-1 Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000013517 stratification Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明为基于视觉特征捆绑和强化学习理论的避障机器人,利用视觉特征捆绑和强化学习理论,基于卷积网络和图像匹配技术,融合深度图像信息,学习复杂环境的先验知识,基于特征捆绑机制,并将结果反馈到导盲机器人的避障中,智能地做出决策:采用MNIST手写数据集,并对0‑9这10个数字分别赋予不同的控制信号含义,利用Kinect传感器采集复杂环境中运动距离包含手写图片的RGB图像,通过灰度化处理,创建输出的图像矩阵,并进行图像匹配,之后将匹配过的图片二值化处理,并代入已训练好的基于卷积神经网络的图像识别模型,最终判定传感器前方的数字,并将相应的控制信号由主机传送给机器人控制模块,实现智能避障。
Description
1.技术领域
本发明为基于视觉特征捆绑和强化学习理论的避障机器人,该发明利用视觉特征捆绑和强化学习理论,基于卷积网络和图像匹配技术,融合深度图像信息,学习复杂环境的先验知识,基于特征捆绑机制,并将结果反馈到避障机器人的避障中,智能、快速、高效、准确地做出决策。
2.背景技术
为了实现视觉特征捆绑理论在现实生活中的应用,尝试为机器智能提供认知基础和参考模型,本发明在基于PCNN的视觉图像分割技术、卷积神经网络(CNNs)模型、基于灰度的图像匹配技术、基于CNNs的图像识别技术等基本理论方法的基础上,尝试了多种理论方法的不同组合,并据此发明了基于视觉特征捆绑和强化学习理论的避障机器人。
随着人工智能领域的不断发展,越来越多的机器学习算法应用于传统的控制领域中,无论国内还是国外都在积极地探索将机器学习理论应用于生产实践中,相比之下国外研究机构对机器学习的应用远超过国内。无论是在机器人领域,还是计算机视觉领域或语音识别领域中,机器学习理论都发挥着重大的作用。
本发明尝试用避障机器人携带Kinect视觉传感器,在行进过程中捕捉前方路况,并在相应前方路障位置放置手写1位阿拉伯数字,由传感器捕捉此标识,并实时传递给远端处理器。处理器在图像匹配、图像识别的基础上,智能识别出数字内容,并将此前编辑的数字所对应的相应控制指令,实时传递给继续行进中的机器人,来控制修正进一步的行进参数。而此处的手写数字,本发明采用的MNIST手写数据集。当然,如何能够快速的捕捉,实时地测距,及时的反馈,这是复杂的应用过程。本发明主要利用Kinect的深度摄像头,提取深度数据,得到图像相对机器人之间的距离,实现了在捕捉到实时图像后,智能地截取需要的图像位置,快速准确地识别出图像内容,并及时将该图像代表的控制指令传递到避障机器人的控制模块。
3.发明内容
本发明采用MNIST手写数据集,并对0-9这10个数字分别赋予不同的控制信号含义,利用Kinect传感器采集复杂环境中运动距离包含手写数字的RGBD图像,通过灰度化处理,采用PCNN的图像分割技术,创建输出的图像矩阵,并进行图像匹配,之后将匹配过的图片二值化处理,并代入已训练好的图像识别模型,最终判定传感器前方的数字,并将相应的控制信号传给机器人控制端。附图2给出了该发明的基本流程。
3.1基本环境
发明初期,基本确定了2种环境配置,并从中选优,确定了最终的实验环境。
3.1.1 VS2013+Kinect SDK+Open CV:
Kinect SDK为微软官方库,其主要是针对Windows7设计,内含驱动、原始感测数据流程试开发接口、自然用户接口、安装文件等部分。该工具包的优点如下:
1)提供视频支持;
2)能调整倾角的转动电机。
之所以没有最终采用是因为对于本实验来说,其具有如下缺憾:
1)只提供了部分接口,有些地方进行了封装,难以进行二次开发,限制了很大一部分功能的开发与扩展;
2)微软对非商业使用的限制;
3)该工具包在语言上与Open CV不兼容;Kinect SDK主要支持C#,在一定程度上弱化了C++。而Open CV主要支持C++。
3.1.2 VS2013+Open NI+Open CV:
OpenNI是一个多语言,跨平台的框架。它定义了编写应用程序,并利用其自然交互的API。该工具包可以克服微软所提供官方工具包的一些缺点,更适用于本实验。由于其所使用语言与Open CV的高度兼容,使得实验工作量减少许多,成为本实验开发环境更适合的选择。
最终使用如下环境配置及实验流程。
1)Kinect:Kinect传感器初始化,如果附图3所示,开始采集图像。
2)Open NI:提取Kinect RGBD图像(即得到每个像素点的深度值)。
3)采用PCNN对灰度图像进行图像分割和二值化处理。
4)Open CV:将图像转换成灰度图像,利用其模板匹配方法,寻找到合适的匹配区域。
5)Open NI:在整个深度图中结合第二步中所提取坐标,进一步得到更加精确的具体目标的深度值。(用于确定机器人在距该目标多远处发出某个行动。)
6)基于Python的Theano库:将目标区域所截的符合输入的图片送至卷积网络进行卷积匹配,得到预先约定的控制机器人行动方式的信息。
3.2MNIST手写数字图像数据集
MNIST数据集由NIST Special Database 3和Special Database 1构成。NIST数据库最初构建时采用SD-3作为训练集,而将SD-1作为测试集。但是由于SD-3采集于美国人口调查局(Census Bureau)的员工,而SD-1则采集于美国高中学生的手写数据。所以SD-3相比于SD-1更加清楚且容易辨认。为了使得训练结果和测试结果能更加独立于其所采用的数据集,LeCun综合了这两个数据集的特点,构建了MNIST数据集。MNIST中的训练集选用了SD-3和SD-1中的各30,000个样例,抽选的60,000个样例来自于大约250个不同的个体的手写数据,并且保证了测试集和训练集的数据来自于不同的个体。同样,测试集也选用了SD-3和SD-1中各5,000个样例。
MNIST数据集中的所有图片都经过了尺寸标准化和中心化,每张图片的大小为28×28。数据集中部分数字的图像见附图4和附图5,从图中可以看到,手写数字中相同标签下不同图像之间还是有很大差异的。
3.3基于像素灰度值的图像匹配算法及其改进
为了寻找合适的图像匹配方法,本实验尝试了多种图像匹配方法,并分别予以测试,最终确定了采用序贯相似度检测算法(SSDA)的图像匹配改进算法。现将尝试失败和成功的方法分别描述如下。
3.3.1边缘点检测法
图像的边缘是图像最基本的特征。所谓的边缘即指在其周围像素灰度有阶跃变化或屋顶变化的那些像素的集合,即指图像局部强度变化最显著的部分。边缘广泛存在于目标与背景、目标与目标、区域与区域之间,蕴含了丰富的内在信息(方向、阶跃性质、形状等等),是图像分割、纹理特征、形状特征等图像分析的重要基础。该方法能勾画出目标物体,使观察者一目了然,是人们对图像最感兴趣的特征之一,所以,也是最容易想到的感兴趣区域提取办法之一。
针对于本实验,其实验效果不佳导致最终没能采用的原因如下:
1)该方法基于图像的灰度值展开计算,灰度值的测量很大程度上依赖于光线的强弱,对光照条件要求甚高。本实验的实验环境多种多样,对光照条件不进行限制。由此,很难以获得正确灰度值,从而难以据此计算准确边界值,给实验带来一定误差。
2)对于边缘点检测的各种算法,都需要遍历所有的像素点。由于该实验目的为通过提取图像感兴趣区域,从而依据该区域的特征进行实时控制机器人的下一步去向,对时间要求严格,而实验采集的图片大小为640*480,经过一次完整遍历所需时间已远远不能满足实时性的需求。不仅如此,必须经过完整的遍历也使得计算量增加,不利于实验之后的拓展。
3)在处理灰度值方面,对于灰度阈值的设定也给最终结果带来严重影响。还需前期进行阈值选取的实验,大大增加实验工作量。
4)该方法仅仅能实现边缘的检测,即便是能正确地检测出各个边缘,但也难以保证改边缘所围成的区域即为本实验感兴趣区域。不仅如此,该方法还可能检测出多个边缘,即划分出多个区域,对本实验无直接帮助。
综上所述,本实验放弃采用边缘点检测方法来提取感兴趣区域。
3.3.2预将图片格式由RGB转化为HSV
有研究表明在彩色图像中有10%的边缘在灰度图中检测不到[80]。彩色边缘检测主要由颜色距离模型(颜色相似度模型)和彩色边缘检测算子两部分组成。在现有的研究方法中,颜色距离函数主要有欧式距离函数和角向量距离函数。
在彩色空间中,RGB彩色空间的表达式最容易得到,但是它同人的视觉感知的差异造成基于RGB空间的边缘检测结果难以同人的视觉感知结果相对应。。由此,同人视觉感知相接近的HSV彩色空间成为彩色边缘检测中经常使用的空间。
HSV彩色空间对于本实验有个独特的优点即可以只观察H(色相)值,减少计算量,在计算中对于S(饱和度)与V(亮度)的影响都可以忽略不计。但之所以最终还是没能采用的原因主要有:
1)在HSV空间中欧式距离不能合理地区分不同的颜色,而角向量距离只能合理区分不为白光的颜色,对于白色光,他们之间的距离全部为1。所以,要采用该方法必须要在HSV空间中找到一种能合理区分颜色的方法,进而必须对原有的HSV向量根据欧式距离的特点进行变换。
2)实验所用采集图像的Kinect为光学传感器,环境难以实现对光线的控制,进而拥有大量光杂质。这些光杂质对H值的影响显而易见。
3、该方法同边缘点检测类似,是一种非基于匹配的方法,所得结果多种多样,并不一定能够准确定位到所感兴趣区域内。
综上,实验组决定另找匹配方法。
3.3.3 SIFT匹配算法
局部影响特征的描述与侦测可以帮助辨识物体,SIFT特征即为基于物体上的一些局部外观的兴趣点而与影响的大小和旋转无关[81]。对于光线、噪声、些微视角改变的容忍度也相当高。基于这些特征,它是高度显著而且相对容易撷取,在母数庞大的特征数据库中,很容易辨识物体且鲜有错误。使用SIFT特征描述对于部分物体遮蔽的侦测率也相当高,甚至只需要3个以上的SIFT物体特征就足以计算出位置与方位。
SIFT算法的实质是在不同的尺度可能空间上查找关键点(特征点),并计算出关键点的方向。SIFT所查找到的关键点是一些十分突出,不会因光照、仿射变换和噪声等因素而变化的点,如角点、边缘点、暗区的亮点及亮区的暗点等。
该算法的特点如下:
1)SIFT算法特征是图像的局部特征,其对旋转、尺度缩放、亮度变化保持不变性,对视角变化、仿射变换、噪声也有一定的稳定性;
2)独特性好,信息量丰富,适用于在海量特征数据库中进行快速、准确的匹配;
3)多量性,即使少数的几个物体也可以产生大量的SIFT特征向量;
4)可扩展性,可以方便地与其他形式特征向量进行联合;
5)精度高,匹配成功率高,适合多种对精度要求极高的环境。
但是本实验依旧没有采用该方法匹配是因为精度跟速度是一对矛盾体,精度足够高必然会以牺牲速度为前提,未改进的该算法速度难以满足实验的实时性需求。所以最终还是以放弃告终。
3.3.4归一化互相关匹配
归一化互相关匹配(Normalized Correlation,NC)算法是一种经典的统计匹配算法,通常写为NC算法。通过计算模板图像和待匹配图像的互相关值,来确定匹配的程度。互相关值最大时的搜索窗口位置决定了模板图像在待匹配图像中的位置。互相关的定义一般有如下两种形式:
NC算法具有很高的准确性、适应性,所求得的NC值不受灰度值的线性变换的影响。但是考虑到图像中的自相关值都是比较大,因而互相关计算过程中,相似度形成以模板存在的真实位置为中心的平缓的峰,无法检测到准确的尖峰位置。即当模板稍微偏离真实位置,所求得的图像相关值也会很大,这将使得确定模板存在的准确位置很难。NC搜索算法的缺点就是计算耗费过于庞大,在应用时所用的计算时间过长。所以可以通过其它的各种加速算法来进行改进,如SSDA(序贯相似度检测算法)、图像金字塔等。
3.3.5图像匹配的改进方法
1)粗匹配
该过程主要目的是提高匹配速度,具体采用SSDA(序贯相似度检测算法):
在快速算法中,SSDA的算法思想得到广泛的认同和应用。这种思想就是根据匹配运算算法的情况,再给出一种阈值的计算方法。这种阈值T可以随着匹配运算的进行而不断的调整,能够反映出该次的匹配运算是否有可能给出一个超过预定阈值的结果。这样,就可在每一次匹配运算的过程中随时检测该次匹配运算是否有继续进行下去的必要。图像匹配计算量大的原因在于搜索窗口在这个待匹配的图像上进行滑动,而且每滑动一次就要作一次匹配相关运算。而且,除匹配点外在其它非匹配点上都做的是无用工作,从而导致了图像匹配算法的计算量上升。所以,一旦发现模板所在参考位置为非匹配点就丢弃不再计算,立即换新的参考点计算,则可以大大加速匹配过程,这正是SSDA算法的思想。
具体实现的时候,需要根据所采用的匹配相关运算的算法,来制定SSDA阈值T的计算方法,在每一个搜索窗口的匹配相关运算时,在合理的计算间隔时检测当前所得的相关结果和SSDA阈值T的比较关系。一旦发现该搜索窗口的匹配相关运算为无用,立即停止,转入下一搜索窗口的计算,可以实现匹配算法的加速。
SSDA算法是用∫∫|f-t|dxdy作为匹配尺度的。在数字图像的场合,在图像F(x,y)中的点(u,v)(表示模板的左上端位置)的非相似度m(u,v)用下式计算。
如果在点(u,v)处有和模板一致的图案时,则m(u,v)值很小,相反则取大的值。特别是模板图像和待匹配图像完全不一致的场合,如果在模板内的各像素点上与图像的灰度差的绝对值依此增加下去,其和就会急剧地增大。因此,在做加法的过程中,如果灰度差的部分和超过了某一阈值时,就认为在这位置上和模板一致的图像不存在,从而转移到下一个位置上进行m(u,v)的计算。另外,包括m(u,v)在内的计算只是加减运算,而且因为这一计算在大多数位置上中途便停止了,因此可以大幅度地缩短运算时间。当然,为了尽快停止计算,可以随机选择像素的位置进行灰度差的计算,而不是从某一固定位置开始。
由于真正的相对应点只有一个,绝大多数情况下都是对非匹配点计算的,显然,越早放弃非匹配点越能够节省时间。以上算法成为SSDA(序贯相似性检测算法)。
2)精确匹配
此过程采用曲面拟合法,主要目的是提高匹配精度。
以第一次匹配所得到的整像素定位点(i,j)为中心,在(i,j)的邻域内应用九点曲面拟合法进行计算[85],如附图6所示,以得到最后的结果。
给出附图6中9个已知点的相关系数C(x,y),用最小二乘法拟合二次曲面:
P(x,y)=ay2+bx2+cxy+dy+ex+f (3-4)
并产生均方差
δ=∑[(ay2+bx2+cxy+dy+ex+f)-C(x,y)]2 (3-5)
使δ取值最小,即用δ分别对a,b,c,d,e,f求偏导数,并令其为0,则有
解方程组,可求得6个未知量a,b,c,d,e,f的值,这样二次曲面方程便可确定,然后对式P(x,y)求极大值:令
得到二次曲面的驻点:
该驻点是否为极大值,应用下面的条件进行判断。令
D=D(x0,y0)=Pxx(x0,y0)Pyy(x0,y0)-[Pxy(x0,y0)]2 (3-8)
如果D>0且Pxx(x0,y0)<0,则P(x0,y0)为极大值。于是,当D=3ab-c2>0且Pxx(x0,y0)=2b<0,即b<0时,P(x0,y0)为极大值。实践证明相关系数函数为单值函数,且仅有一个驻点,因此不经判断便可以确定该点一定为极大值点。点(i,j)为粗匹配中所求得的整像素定位点,(x0,y0)为二次曲面的极大值。因此,经以上粗匹配加上精确匹配运算后,确定匹配子图像的位置为(i+x0,j+y0),也就是我们所要求的亚像素定位点。当然,该结果也会存在误差,但是该误差要比粗匹配时的结果小一个数量级。
3.4基于卷积神经网络的手写数字图像识别
对于训练完成的卷积神经网络,其分类过程和多层前馈网络相似,将图像作为输入数据,逐层传播直到输出层输出分类结果。如附图5所示,网络在接收到一副图像的输入数据后(图中该图像为数字‘4’),通过第一个卷积层中的6个过滤器后,形成6个特征图,也就是C1层。这些特征图包含了图片通过各个过滤器(特征抽取器)后所获得的特征。然后C1层经过一个2×2到1的降采样操作得到S2层,S2层相比C1层减少了特征图的大小,并且一定程度上增强了网络的对于噪音和轻微扰动的鲁棒性。如C1和S2中最下面一幅特征图所示,C1图中数字4的右下角的缺口部分在S2图中变得不再那么明显。卷积神经网络重复这个过程,直到得到C5层,包含120个1×1的特征图,然后将这120个特征图通过全连接的方式传播到大小为10×1的输出层,输出分类结果为‘4’。
卷积神经网络的改进方法有很多方面的工作可以做,类似于多层前馈网络,可以在误差函数中增加惩罚项是的训练后得到的权值趋向于稀疏化,增加一些竞争机制使得网络中在某个特定时刻只有部分节点处于激活状态等等。本文主要针对卷积神经网络所具有的层次化和局部感知区域的结构上的特点,考察卷积神经网络中各层过滤器数量的大小对于网络训练过程和分类结果的影响,比较各种大小的过滤器层对于网络性能的影响情况。以著名的LeNet-5模型为基础[88],去除LeNet-5种的一些特别针对于手写数字识别而设计的参数和连接方式,形成一个典型的简单的卷积神经网络,然后在此基础上,分别增加和减少网络中各层过滤器的数量,形成若干新的网络模型用于实验比较。
3.5应用效果
3.5.1具体实验步骤
结合附图2的描述,现将基本算法描述如下。
输入模型图像,开启Kinect传感器采集图像,并将采集到的图像做灰度处理。调用模板匹配函数,对匹配后的图片二值化处理,最后进行图像识别。
1.Py_Initialize();
2.Import time,numpy,Image,predictModel.//输入模型图像、各类参数
3.Open Kinect RGB Camera //打开Kinect传感器
4.While(key!=”ESC”)
5.Begin
6.If(kinect GRB Camera Status==OK) //采集图像信息
7.Then
8.call cvtColor(RGBImg,GrayImg) //将图像转换成灰度图像
9.call flip(GrayImg) //图像镜面反转
10.End If
11.method=CV_TM_COEFF //采用相关系数法
12.Call matchTemplate(GrayImg,TemplateImg,result,method)//调用模板匹配函数
13.interest=GrayImg(Rect(matchLoc.x,matchLoc.y,temp.cols,temp.rows))
14.method=CV_THRESH_BINARY+CV_TREHSH_OTSU//采用大津法,自适应设置二值化阈值
15.call threshold(interest,interest,0,255,method)//对图像二值化处理
16.PyRun_AnyFileEx(interest,″predict_final.py″,0);//运行python进行图像识别
17.Output Image,numpy //输出识别图像及图像数字
18.End
19.End
3.5.2基于PCNN的图像分割方法
灰度处理后的采集图像,输出图像矩阵的具体创建迭代过程如下。
1.GrayImg=cvtRGB2GRay(src);
2.kernel=[0.707, 1, 0.707,
1, 1, 1,
0.707, 1, 0.707]; //输入卷积核算子
3.F=0.693; //输入反馈输入
4.L=0.693; //输入耦合连接
5.E=0.069; //输入动态门限
6.VF=0.01; //输入反馈系数
7.VL=1; //输入连接系数
8.VE=0.2; //输入动态门限系数
9.B=0.2; //输入β系数
//pS,pSum,pY为单通道无符号8位整型矩阵
//pS2,pF,pL,pE为单通道32位浮点型矩阵
//上述尺寸一致,皆为src.size()
10.pS=GrayImg; //输入待处理灰度图像
11.pS2=GrayImg/255.0; //将灰度图像归一化处理
12.pY=all(0); //pY为输出图像矩阵,清零
13.pE=all(2); //将门限矩阵值全部设置为2
14.pF=pS2; //代入待处理反馈输入矩阵
15.pL=pS2; //代入待处理连接输入矩阵
16.For i=1 to N //迭代N次
17.Begin
18.pSum=conv(pY,kemel); //卷积运算
19.pF(i)=exp(-F)*pE(i-1)+pS2+VF*pSum; //反馈运算
20.pL(i)=exp(-L)*pL(i-1)+pL+VL*pSum; //连接运算
21.U=pF*(1+B*(pL)) //信息熵积累
22.pE(i)=exp(-E)*pE(i-1)+VE*pY; //门限衰减
23.If(U(x,y)>pE(x,y)) //大于门限值触发
24.pY(x,y)=255;
25.Else
26.pY(x,y)=0;
27.End
28.Output pY //迭代完毕后输出结果
29.End
3.5.3算法学习及图像处理过程
3.5.3.1算法学习过程
在Mnist手写体阿拉伯数字库中,随机选取具有代表性的手写体样本各10个,总计100个,作为卷积神经网络的训练样本进行训练。训练完毕后得到识别参数。将习得的识别参数载入至卷积神经网络中,实现对手写体阿拉伯数字的识别应用。
接着,对剩下的Mnist手写体阿拉伯数字进行识别练习,正确识别率达到94.6%,基本符合识别要求。所以,在此基础上进行一步的实验测试,目的在于探究在现实环境下透过光学摄像头对现实场景中阿拉伯数字进行识别的效果。
3.5.3.2图像处理过程
本次实验,采用Kinect上的RGBD摄像头,进行现实环境中的图像采集,将现实环境图像转换为灰度图像,并利用模板匹配从中找到数字图像,之后将数字图像从现实环境中分割出来,并设好阈值、对其进行二值化处理,将二值化后的图像进行线性压缩至28x28大小的图像,之后投入到卷积神经网络中进行数字识别。最终输出实验的识别结果。
4.附图说明
附图1为基于视觉特征捆绑和强化学习理论的避障机器人原理结构图。
附图2为基于视觉特征捆绑和强化学习理论的避障机器人模型。
附图3为发明整体流程图。
附图4为Kinect传感器初始化流程图。
附图5为MNIST数据集中前80个数字的图像。
附图6为MNIST数据集中数字4的部分训练样例。
附图7为3×3像素阵(九点曲面拟合法)。
附图8为基于卷积网络的图像识别过程。
附图9为待处理灰度图像及不同迭代次数处理后的图像。
附图10为图像采集及匹配实验过程。
附图11为芯片关键针脚连接图。
5.具体实施方式
本发明为基于视觉特征捆绑和强化学习理论的避障机器人,其具体实施方式如下。本发明由主机模块、Kinect RGB和深度摄像头、stm32机器人控制模块、无线电接收模块、电机驱动模块、串口通信模块和智能机器人车身架构组成。
图像采集部分由kinect(7)进行采集。利用kinect(7)中的RGB摄像头和红外深度摄像头收集图像数据,得到具有RGBD信息的实时图像,供PC主机进行分析处理。
机器人通信部分,利用RS-232(12)串行通信接口,将经由主机处理并识别图像后产生的控制信号进行传输。实现主机和机器人控制模块的实时有线通信,保障控制信号的稳定传输。
机器人控制部分,采用STM32F103ZET6(14)作为主控芯片,将经由RS-232(12)通信接口得到的控制信号,进行解析处理。待解析完毕后,执行对应的机器人控制指令,并采用PWM方波对执行电机速率和转向进行控制。从而实现对执行机构的移动速率和运动方向的控制。
机器人执行机构部分,由12V稳压直流电机(1)(2)(3)(4)(5)(6)提供行进动力。同时,直流电机(1)(2)(3)(4)(5)(6)由电机驱动模块(8)(9)(10)分别进行对应控制。电机驱动模块(8)对应直流电机(1)(2)正向和反向控制,电机驱动模块(9)对应直流电机(4)(5)正向和反向控制,电机驱动模块(10)对应直流电机(3)(6)正向和反向控制。
无线电应急控制,利用无线接收装置(13),在机器人出现失控状态时,利用简易遥控装置,对机器人进行遥控处理,防止造成严重后果。
Claims (3)
1.一种基于视觉特征捆绑和强化学习理论的避障机器人,其特征是利用视觉特征捆绑和强化学习理论,基于卷积网络和图像匹配技术,融合深度图像信息,学习复杂环境的先验知识,基于特征捆绑机制,并将结果反馈到导盲机器人的避障中,智能地做出决策:采用MNIST手写数据集,并对0-9这10个数字分别赋予不同的控制信号含义,利用Kinect传感器采集复杂环境中运动距离包含手写图片的RGB图像,通过灰度化处理,创建输出的图像矩阵,并进行图像匹配,之后将匹配过的图片二值化处理,并代入已训练好的基于卷积神经网络的图像识别模型,最终判定传感器前方的数字,并将相应的控制信号由主机传送给机器人控制模块,实现智能避障。
2.如权利要求1所述的基于视觉特征捆绑和强化学习理论的避障机器人,其特征是:
运行环境配置为VS2013+Open NI+Open CV:
1)Kinect:Kinect传感器初始化,开始采集图像;
2)Open NI:提取Kinect RGBD图像,即得到每个像素点的深度值;
3)采用PCNN对灰度图像进行图像分割和二值化处理;
4)Open CV:将图像转换成灰度图像,利用其模板匹配方法,寻找到合适的匹配区域;
5)Open NI:结合2)中所提取坐标,在深度图中进一步得到更加精确的具体目标的深度值,用于确定机器人在距该目标多远处发出某个行动;
6)基于Python的Theano库:将目标区域所截的符合输入的图片送至卷积网络进行卷积匹配,得到预先约定的控制机器人行动方式的信息。
3.如权利要求1所述的基于视觉特征捆绑和强化学习理论的避障机器人,其特征是:
由主机模块、Kinect RGB和红外深度摄像头、stm32机器人控制模块、无线电接收模块、电机驱动模块、串口通信模块和智能机器人车身架构组成:
图像采集部分由kinect进行采集:利用kinect中的RGB摄像头和红外深度摄像头收集图像数据,得到具有RGBD信息的实时图像,供PC主机进行分析处理;
机器人通信部分,利用RS-232串行通信接口,将经由主机处理并识别图像后产生的控制信号进行传输,实现主机和机器人控制模块的实时有线通信;
机器人控制部分,采用STM32F103ZET6作为主控芯片,将经由RS-232通信接口得到的控制信号,进行解析处理,待解析完毕后,执行对应的机器人控制指令,并采用PWM方波对执行电机速率和转向进行控制,从而实现对执行机构的移动速率和运动方向的控制;
机器人执行机构部分,由12V稳压直流电机提供行进动力,同时,直流电机由电机驱动模块分别进行对应控制;
无线电应急控制,利用无线接收装置,在机器人出现失控状态时,利用简易遥控装置,对机器人进行遥控处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510189371.3A CN104793620B (zh) | 2015-04-17 | 2015-04-17 | 基于视觉特征捆绑和强化学习理论的避障机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510189371.3A CN104793620B (zh) | 2015-04-17 | 2015-04-17 | 基于视觉特征捆绑和强化学习理论的避障机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104793620A CN104793620A (zh) | 2015-07-22 |
CN104793620B true CN104793620B (zh) | 2019-06-18 |
Family
ID=53558505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510189371.3A Expired - Fee Related CN104793620B (zh) | 2015-04-17 | 2015-04-17 | 基于视觉特征捆绑和强化学习理论的避障机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104793620B (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
CN105652873B (zh) * | 2016-03-04 | 2018-10-09 | 中山大学 | 一种基于Kinect的移动机器人避障方法 |
CN107291654A (zh) * | 2016-03-31 | 2017-10-24 | 深圳光启合众科技有限公司 | 机器人的智能决策系统和方法 |
US10586153B2 (en) * | 2016-06-16 | 2020-03-10 | Qatar University | Method and apparatus for performing motor-fault detection via convolutional neural networks |
CN106780631B (zh) * | 2017-01-11 | 2020-01-03 | 山东大学 | 一种基于深度学习的机器人闭环检测方法 |
CN106873566B (zh) * | 2017-03-14 | 2019-01-22 | 东北大学 | 一种基于深度学习的无人驾驶物流车 |
CN107229903B (zh) * | 2017-04-17 | 2020-11-03 | 深圳奥比中光科技有限公司 | 机器人避障的方法、装置及存储装置 |
CN107169956B (zh) * | 2017-04-28 | 2020-02-14 | 西安工程大学 | 基于卷积神经网络的色织物疵点检测方法 |
CN107229914B (zh) * | 2017-05-26 | 2020-07-03 | 北京工业大学 | 一种基于深度q学习策略的手写数字识别方法 |
IT201700058505A1 (it) | 2017-05-30 | 2018-11-30 | Volta Robots S R L | Metodo di controllo di un mezzo di lavorazione del terreno sulla base di elaborazioni d'immagini e relativo sistema |
CN108700890B (zh) * | 2017-06-12 | 2021-10-29 | 深圳市大疆创新科技有限公司 | 无人机返航控制方法、无人机和机器可读存储介质 |
CN107341829A (zh) * | 2017-06-27 | 2017-11-10 | 歌尔科技有限公司 | 虚拟现实交互部件的定位方法和装置 |
CN108154464B (zh) * | 2017-12-06 | 2020-09-22 | 中国科学院自动化研究所 | 基于强化学习的图片自动裁剪的方法及装置 |
CN108229440A (zh) * | 2018-02-06 | 2018-06-29 | 北京奥开信息科技有限公司 | 一种基于多传感器融合室内人体姿态识别方法 |
CN108492327B (zh) * | 2018-02-07 | 2021-01-26 | 广州视源电子科技股份有限公司 | Aoi图像匹配方法、系统、可读存储介质及智能设备 |
CN109086806A (zh) * | 2018-07-16 | 2018-12-25 | 福州大学 | 一种基于低分辨率压缩图像的iot便携式设备视觉识别加速方法 |
CN113569797B (zh) * | 2018-11-16 | 2024-05-21 | 北京市商汤科技开发有限公司 | 关键点检测方法及装置、电子设备和存储介质 |
CN109697458A (zh) * | 2018-11-27 | 2019-04-30 | 深圳前海达闼云端智能科技有限公司 | 控制设备移动的方法、装置、存储介质及电子设备 |
CN110032193B (zh) * | 2019-04-30 | 2020-07-03 | 盐城工业职业技术学院 | 一种智能拖拉机田间避障控制系统及方法 |
CN110370273B (zh) * | 2019-06-27 | 2021-04-09 | 华为技术有限公司 | 一种机器人避障方法、装置和系统 |
CN110728507A (zh) * | 2019-10-14 | 2020-01-24 | 南京硅基智能科技有限公司 | 一种用于加油站的无感支付方法及系统 |
CN111360851B (zh) * | 2020-02-19 | 2021-01-15 | 哈尔滨工业大学 | 一种融合触觉和视觉的机器人混合伺服控制装置及方法 |
CN111860209B (zh) * | 2020-06-29 | 2024-04-26 | 北京字节跳动网络技术有限公司 | 手部识别方法、装置、电子设备及存储介质 |
CN112347900B (zh) * | 2020-11-04 | 2022-10-14 | 中国海洋大学 | 基于距离估计的单目视觉水下目标自动抓取方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8797402B2 (en) * | 2002-11-19 | 2014-08-05 | Hewlett-Packard Development Company, L.P. | Methods and apparatus for imaging and displaying a navigable path |
CN102663377B (zh) * | 2012-03-15 | 2014-08-27 | 华中科技大学 | 一种基于模板匹配的字符识别方法 |
CN103903011A (zh) * | 2014-04-02 | 2014-07-02 | 重庆邮电大学 | 基于图像深度信息的智能轮椅手势识别控制方法 |
CN103955215B (zh) * | 2014-04-15 | 2016-10-05 | 桂林电子科技大学 | 基于手势识别的自动避障小车及其控制装置和控制方法 |
CN103927555B (zh) * | 2014-05-07 | 2018-01-05 | 重庆邮电大学 | 基于Kinect传感器的静态手语字母识别系统及方法 |
CN104298235A (zh) * | 2014-08-25 | 2015-01-21 | 洛阳理工学院 | 基于无线视频传输及pid复合控制的移动机器人系统 |
-
2015
- 2015-04-17 CN CN201510189371.3A patent/CN104793620B/zh not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
基于强化学习的农业移动机器人视觉导航;周俊 等;《农业机械学报》;20140228;第45卷(第2期);第53-58页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104793620A (zh) | 2015-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104793620B (zh) | 基于视觉特征捆绑和强化学习理论的避障机器人 | |
Zhang et al. | Deep-IRTarget: An automatic target detector in infrared imagery using dual-domain feature extraction and allocation | |
Mou et al. | Relation matters: Relational context-aware fully convolutional network for semantic segmentation of high-resolution aerial images | |
CN112750140B (zh) | 基于信息挖掘的伪装目标图像分割方法 | |
Hoang et al. | Enhanced detection and recognition of road markings based on adaptive region of interest and deep learning | |
US10445602B2 (en) | Apparatus and method for recognizing traffic signs | |
Kim et al. | Multi-task convolutional neural network system for license plate recognition | |
Ye et al. | A two-stage real-time YOLOv2-based road marking detector with lightweight spatial transformation-invariant classification | |
CN106991370B (zh) | 基于颜色和深度的行人检索方法 | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
Alvarez et al. | Road geometry classification by adaptive shape models | |
Wang et al. | Bridging text spotting and slam with junction features | |
Zang et al. | Traffic lane detection using fully convolutional neural network | |
CN111460884A (zh) | 基于人体跟踪的多人脸识别方法 | |
Wang et al. | Camera-based signage detection and recognition for blind persons | |
Chigorin et al. | A system for large-scale automatic traffic sign recognition and mapping | |
Liu et al. | Multi-type road marking recognition using adaboost detection and extreme learning machine classification | |
Hu et al. | Depth sensor based human detection for indoor surveillance | |
CN103761747A (zh) | 一种基于加权分布场的目标跟踪方法 | |
Blondel et al. | Fast and viewpoint robust human detection for SAR operations | |
Guo et al. | Gesture recognition for Chinese traffic police | |
CN109919973B (zh) | 基于多特征联合的多视角目标关联方法、系统及介质 | |
Ibrahim et al. | A GAN-based blind inpainting method for masonry wall images | |
Hashmi et al. | YOLO-RS: An Efficient YOLO-Based Approach for Remote Sensing Object Detection | |
Tavari et al. | A review of literature on hand gesture recognition for Indian Sign Language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190618 Termination date: 20200417 |