CN103345762A - 基于流形学习的贝叶斯视觉跟踪方法 - Google Patents
基于流形学习的贝叶斯视觉跟踪方法 Download PDFInfo
- Publication number
- CN103345762A CN103345762A CN2013102440622A CN201310244062A CN103345762A CN 103345762 A CN103345762 A CN 103345762A CN 2013102440622 A CN2013102440622 A CN 2013102440622A CN 201310244062 A CN201310244062 A CN 201310244062A CN 103345762 A CN103345762 A CN 103345762A
- Authority
- CN
- China
- Prior art keywords
- bayes
- particle
- manifold
- matrix
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000000007 visual effect Effects 0.000 title claims abstract description 18
- 238000013507 mapping Methods 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 29
- 230000006870 function Effects 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 8
- 239000002245 particle Substances 0.000 claims description 44
- 238000012549 training Methods 0.000 claims description 18
- 238000005070 sampling Methods 0.000 claims description 7
- 230000009467 reduction Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000012952 Resampling Methods 0.000 claims description 3
- 230000003760 hair shine Effects 0.000 claims description 2
- 238000012423 maintenance Methods 0.000 abstract 1
- 230000001154 acute effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000009418 renovation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于流形学习的贝叶斯视觉跟踪方法,包括以下步骤:S1,提出一种新的流行学习算法得到本质流形,将图像观测数据集X=[x1,x2,…,xn]与低维流形上面的点集Y=[y1,y2,…,yn]分别对应,且低维流形表面的每个点可以通过yi=[x,y,z]T=f(μ,ν)来表示,其中i=1,2,…,n;S2,进行反向映射学习,得到从低维流形空间到高维图像观测空间的映射函数g及其相关的系数矩阵B;S3,结合步骤S1与S2的处理结果进行贝叶斯跟踪处理,最终给出跟踪结果。本发明主要用于解决动态环境下对人体的跟踪问题,它是一种基于本质变量保持的流形构建的新型贝叶斯跟踪算法,可以实现对目标的准确跟踪,具有较强的鲁棒性。
Description
技术领域
本发明涉及一种行人跟踪算法,特别涉及一种基于流形学习的贝叶斯视觉跟踪方法。
背景技术
在计算机视觉领域,对图像或者视频中的行人身体进行跟踪和姿态判别是一个负有挑战性的难点。被跟踪的目标往往是图像中的一块由高维数据表示的区域,通常是该区域像素的灰度值。
传统的跟踪方法试图提取显著性特征来将目标区域和非目标区域进行区分。典型的该类算法需要一个由物理特征表示的目标模型,这些特征可以是颜色、形状、或者是纹理等。这样跟踪问题可以通过寻找视觉观测中与目标模型具有最小误差的候选者作为新目标而解决。但是这些算法的性能往往受环境光照的剧烈变化或者目标运动的影响,因为所使用的特征在这些极端情况下不是足够的稳定。
近年来提出了另外一种类型的算法,能够对高维数据进行学习,将其嵌入到低维流形中去。尽管跟踪的目标,例如人的身体或者头部,由高维图像数据表示,但是目标的行为和姿态往往处在一个本质低维流形上。基于这种设想,很多研究工作试图在低维子空间而不是原始的高维空间中解决目标跟踪与姿态判别问题。
文献“Tracking People on a Torus”(A.Elgammal and C.S.Lee,IEEE Trans.PatternAnal.Mach.Intell.,vol31,no.3,pp.520-538,2009.)认为人的身体姿态流形是一个具有两个本质维度:身体姿态和水平视角,但处于三维欧式空间中的圆环体,并且基于这个流形实现了人体跟踪。文献“Learning an intrinsic variable preserving manifoldfor dynamic visual tracking”(H.Qiao,P.Zhang,B.Zhang,and S.W.Zheng,IEEE.Trans.Syst.Man.Cybern.Part B,vol.40,no.3,pp.868-880,2010)中,提出了一种本质变量保持的流形学习算法(IVPML),能够在降维学习的同时很好的保留训练样本的本质变量,并且成功的应用于动态视觉跟踪中,但是该视觉跟踪算法是通过邻域搜索的方式实现的,这种方法在实际应用中可能不是很稳定。
发明内容
本发明针对上述现有技术存在的问题作出改进,即本发明在上述两文献的基础上结合贝叶斯跟踪框架,构建一种更加有效的跟踪算法,并且应用于实际跟踪中。在本发明跟踪算法中,不仅通过新的流形学习方法训练了从观测空间到流形空间的映射函数,也学习了能够从流形空间恢复出图像观测数据的反向映射。目标的位置和姿态在流形空间中进行预测而在观测空间得到验证。
为了解决上述技术问题,本发明提供了如下的技术方案:
基于流形学习的贝叶斯视觉跟踪方法,包括以下步骤:
S1,提出一种新的流行学习算法得到本质流形,将图像观测数据集X=[x1,x2,…,xn]与低维流形上面的点集Y=[y1,y2,…,yn]分别对应,且低维流形表面的每个点可以通过yi=[x,y,z]T=f(μ,ν)来表示,其中i=1,2,…,n;
S2,进行反向映射学习,得到从低维流形空间到高维图像观测空间的映射函数g及其相关的系数矩阵B;
S3,结合步骤S1与S2的处理结果进行贝叶斯跟踪处理,最终给出跟踪结果。
在步骤S1中,所述一种新的流形学习算法,不仅可以将人体训练数据嵌入到本质维度空间,而且能够同时保持训练数据集的邻域关系和全局拓扑。在步骤S1和S2中,为了将嵌入流形的点与其对应的高维观测数据准确的联系起来,基于降维学习和核回归方法学习了一种灵活的双向映射。在步骤S3中,基于贝叶斯理论,通过对流形空间上的粒子与图像中的观测数据之间的相互验证,目标可以准确的被跟踪。同时,在流形上粒子的不断更新的过程中,目标的状态也可以估计出来。
进一步地,步骤S1包括以下步骤:
S11,构建邻接图和邻接图的几何结构,并用G来描述,用x1,x2,…,xn来表示其中的训练点集;
S12,选择权重,用矩阵W来表示图G的权重矩阵,对于权重矩阵中的数据,根据不同情况选择不同的权重值;
S13,特征映射,让X=[x1,x2,…,xn]表示训练数据矩阵,低维表达可以通过YT=ETX得到,E是一个映射矩阵。
进一步地,在步骤S2中,所述的系数矩阵B是指反向映射函数的系数矩阵,令Z=[z1,z2,…,zn]表示恢复出的观测空间,Y=[y1,y2,…,yn]表示其在本质流形空间中对应的低维点集,这里zi∈Rh而yi∈Rl,并且l<<h;设这个非线性反向映射函数g:Rl→Rh有下面的形式:
zi=g(yi):=Bk(yi) (1)
其中B=[b1,b2,…,bn]是一个h×n的系数矩阵,并且
k(yi)=[k1(yi,y1),k2(yi,y2),…kn(yi,yn)]T (2)
进一步地,步骤S3包括以下步骤:
S31,初始化,在视频中选择初始目标x1,通过比较x1和训练集X中每一个训练数据,选择本质流形上的对应点y1=f(μ1,ν1),通过在y1点周围采样初始化粒子集合
S33,更新粒子,在第t帧中,按照粒子权重越大则有越大的概率被选择的规则对t-1帧中的粒子集合 重新采样,用 来表示新粒子集合,对所述新粒子集合添加高斯白噪声,得到第t帧的粒子集合
S34,确定新的目标,通过双向映射分别在观测空间和流形空间中计算候选者 与粒子 之间的相似度,候选者通过降维函数y=ETx映射到流形空间中,而粒子通过(1)式恢复出观测图像,即可寻找最优的候选者xt作为第t帧的目标。
S36,返回所述S32步对新一帧进行处理从而继续跟踪处理过程。
进一步地,步骤S34所述的双向映射为S13所述的特征映射和S2所述的反向映射,S13将高维观测图像降至流形空间中与粒子计算相似度,S2将低维粒子还原成图像,计算与观测图像之间的相似度。
本发明提出的一种基于流形学习的贝叶斯视觉跟踪方法,与传统的跟踪方法相比较,算法性能不会受环境光照的剧烈变化或目标运动的影响,具有足够的稳定性;与较新的基于邻域搜索的视觉跟踪算法相比较,本发明算法中,不仅通过新的流形学习方法训练了从观测空间到流形空间的映射函数,也学习了能够从流形空间恢复出图像观测数据的反向映射,目标的位置和姿态在流形空间中进行预测而在观测空间得到验证。此外,在实际的应用中,对人体跟踪的结果也较稳定。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明一个优选的实施例的方法流程图;
图2是本发明实施例提出的算法应用于动态坏境下的人体跟踪效果示意图。
具体实施方式
如图1所示,本发明公开一种基于流形学习的贝叶斯视觉跟踪方法,包括以下步骤:
第一步,提出一种新的流行学习算法得到本质流形,将图像观测数据集X=[x1,x2,…,xn]与低维流形上面的点集Y=[y1,y2,…,yn]分别对应,且低维流形表面的每个点可以通过yi=[x,y,z]T=f(μ,ν)来表示,其中i=1,2,…,n;
第二步,进行反向映射学习,得到从低维流形空间到高维图像观测空间的映射函数g及其相关的系数矩阵B;
第三步,结合步骤S1与S2的处理结果进行贝叶斯跟踪处理,最终给出跟踪结果。
第一步提出一种新的流形学习算法,具体方法如下:
1)构建邻接图和它的几何结构,并用G来描述,用x1,x2,…,xn来表示其中的训练点集;
2)选择权重,用矩阵W来表示图G的权重矩阵,对于权重矩阵中的数据,我们有如下的定义:
i)如果xi和xj在坐标μ或者υ上相邻,那么令权重值Wij=cμ或者cυ。cμ和cυ是人为设定的常量;
ii)如果图中两个点不是邻居但是通过一条路径相连,那么计算这两个点之间的最短路作为权重;
iii)如果图中两个点不连通,那么给它们之间设置一个很大的值作为权重。
3)特征映射,让X=[x1,x2,…,xn]表示训练数据矩阵,那么低维表达可以通过YT=ETX得到,E是一个映射矩阵。流形学习算法就是为了解决某个优化问题而得到该映射矩阵。
第二步进行的反向映射学习,得到从低维流形空间到高维图像观测空间的映射函数g及其相关的系数矩阵B,具体的方法如下:
zi=g(yi):=Bk(yi) (1)
其中B=[b1,b2,…,bn]是一个h×n的系数矩阵,并且
k(yi)=[k1(yi,y1),k2(yi,y2),…kn(yi,yn)]T (2)
结合第一步与第二步的结果,第三步的贝叶斯跟踪算法具体方法如下:
1)初始化,在视频中选择初始目标x1。通过比较x1和训练集X中每一个训练数据,选择本质流形上的对应点y1=f(μ1,ν1)。通过在y1点周围采样初始化粒子集合 其中
3)更新粒子,在第t帧中,按照粒子权重越大则有越大的概率被选择的规则对t-1帧中的粒子集合重新采样。这种重要性随机采样可以通过对[0,1]上的均匀分布按照粒子的累积权重进行采样得到。值得注意的是先前的粒子集合中的某些点可能被重新选择了好几次,而另外一些点则被抛弃掉。我们用 来表示新的粒子集合。
对这个新粒子集合添加高斯白噪声,然后我们就得到了第t帧的粒子集合
4)确定新的目标,通过双向映射分别在观测空间和流形空间中计算候选者 与粒子 之间的相似度。候选者可以通过降维函数y=ETx映射到流形空间中,而粒子可以通过式(1)恢复出观测图像。用此方法寻找最优的候选者xt作为第t帧的目标。
5)更新粒子权重,计算每个粒子与新目标xt的相似度作为粒子集合 的在第t帧的权重,这些权重需要按照 进行标准化。
6)返回第2)步对新一帧进行处理从而继续跟踪的处理过程。
本方法的训练样本是针对同一个人采集的视频中截取而来的,将人体按照36个水平角度和42个步行姿态来进行拍摄和采样。测试的视频是在户外环境中的智能车辆上采集的,视频分辨率是640×480,视频的帧率是30帧每秒,视频数据流是在移动电脑系统中进行处理的。
如图2,根据上述具体的实施方式,对街道转弯处的行人人体跟踪处理,在照相机的视野中,目标快速的从左边运动到右边,算法可以准确的跟踪上目标,可以证明本发明所提供的方法能够有效的进行行人跟踪,虽然某些帧里面目标窗口比人体稍大一些,但是在接下来几帧中又会缩放至与人体区域相适应,足以体现本发明的跟踪算法在动态环境下的鲁棒性。
综上,本发明提出的一种基于流形学习的贝叶斯视觉跟踪方法,与传统的跟踪方法相比较,算法性能不会受环境光照的剧烈变化或目标运动的影响,具有足够的稳定性;与较新的基于邻域搜索的视觉跟踪算法相比较,本发明算法中,不仅通过新的流形学习方法训练了从观测空间到流形空间的映射函数,也学习了能够从流形空间恢复出图像观测数据的反向映射,目标的位置和姿态在流形空间中进行预测而在观测空间得到验证。此外,在实际的应用中,对人体跟踪的结果也较稳定。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.基于流形学习的贝叶斯视觉跟踪方法,其特征在于:
包括以下步骤:
S1,提出一种新的流行学习算法得到本质流形,将图像观测数据集X=[x1,x2,…,xn]与低维流形上面的点集Y=[y1,y2,…,yn]分别对应,且低维流形表面的每个点可以通过yi=[x,y,z]T=f(μ,ν)来表示,其中i=1,2,…,n;
S2,进行反向映射学习,得到从低维流形空间到高维图像观测空间的映射函数g及其相关的系数矩阵B;
S3,结合步骤S1与S2的处理结果进行贝叶斯跟踪处理,最终给出跟踪结果。
2.如权利要求1所述的基于流形学习的贝叶斯视觉跟踪方法,其特征在于:步骤S1进一步的包括以下步骤:
S11,构建邻接图和邻接图的几何结构,并用G来描述,用x1,x2,…,xn来表示其中的训练点集;
S12,选择权重,用矩阵W来表示图G的权重矩阵,对于权重矩阵中的数据,根据不同情况选择不同的权重值;
S13,特征映射,让X=[x1,x2,…,xn]表示训练数据矩阵,低维表达可以通过YT=ETX得到,E是一个映射矩阵。
4.如权利要求1所述的基于流形学习的贝叶斯视觉跟踪方法,其特征在于:步骤S3进一步的包括以下步骤:
S31,初始化,在视频中选择初始目标x1,通过比较x1和训练集X中每一个训练数据,选择本质流形上的对应点y1=f(μ1,ν1),通过在y1点周围采样初始化粒子集合 其中
S32,获取候选者,在第t帧,在图像中根据上一帧的目标位置xt-1进行采样得到候选者数据集合所述采样过程是在图像的不同尺度下按照确定的x和y坐标步长进行的;
S33,更新粒子,在第t帧中,按照粒子权重越大则有越大的概率被选择的规则对t-1帧中的粒子集合 重新采样,用 来表示新粒子集合,对所述新粒子集合添加高斯白噪声,得到第t帧的粒子集合
S34,确定新的目标,通过双向映射分别在观测空间和流形空间中计算候选者 与粒子 之间的相似度,候选者通过降维函数y=ETx映射到流形空间中,而粒子通过(1)式恢复出观测图像,即可寻找最优的候选者xt作为第t帧的目标。
S36,返回所述S32步对新一帧进行处理从而继续跟踪处理过程。
5.如权利要求4所述的基于流形学习的贝叶斯视觉跟踪方法,其特征在于:步骤S34所述的双向映射为S13所述的特征映射和S2所述的反向映射,S13将高维观测图像降至流形空间中与粒子计算相似度,S2将低维粒子还原成图像,计算与观测图像之间的相似度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310244062.2A CN103345762B (zh) | 2013-06-19 | 2013-06-19 | 基于流形学习的贝叶斯视觉跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310244062.2A CN103345762B (zh) | 2013-06-19 | 2013-06-19 | 基于流形学习的贝叶斯视觉跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103345762A true CN103345762A (zh) | 2013-10-09 |
CN103345762B CN103345762B (zh) | 2016-08-17 |
Family
ID=49280555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310244062.2A Expired - Fee Related CN103345762B (zh) | 2013-06-19 | 2013-06-19 | 基于流形学习的贝叶斯视觉跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103345762B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675424A (zh) * | 2019-09-29 | 2020-01-10 | 中科智感科技(湖南)有限公司 | 一种图像中目标物的跟踪方法、系统及相关装置 |
CN110866936A (zh) * | 2018-08-07 | 2020-03-06 | 阿里巴巴集团控股有限公司 | 视频标注方法、跟踪方法、装置、计算机设备及存储介质 |
CN112085765A (zh) * | 2020-09-15 | 2020-12-15 | 浙江理工大学 | 结合粒子滤波及度量学习的视频目标跟踪方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1828630A (zh) * | 2006-04-06 | 2006-09-06 | 上海交通大学 | 基于流形学习的人脸姿势识别方法 |
-
2013
- 2013-06-19 CN CN201310244062.2A patent/CN103345762B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1828630A (zh) * | 2006-04-06 | 2006-09-06 | 上海交通大学 | 基于流形学习的人脸姿势识别方法 |
Non-Patent Citations (3)
Title |
---|
HONG QIAO,PENG ZHANG,BO ZHANG,SUIWU ZHENG: "Learning an Intrinsic-Variable Preserving Manifold for Dynamic Visual Tracking", 《IEEE TRANSACTIONS ON SYSTEMS,MAN AND CYBERNETICS-PART B:CYBERNETICS》, vol. 40, no. 3, 30 June 2010 (2010-06-30), pages 868 - 872, XP011345198, DOI: doi:10.1109/TSMCB.2009.2031559 * |
曾宪华: "流行学习的谱方法相关问题研究", 《万方学位论文数据库》, 19 March 2010 (2010-03-19), pages 3 * |
李福才: "流行学习在交通标志识别中的应用研究", 《中国优秀硕士学位论文全文数据库 信息科学辑》, no. 3, 15 March 2012 (2012-03-15) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110866936A (zh) * | 2018-08-07 | 2020-03-06 | 阿里巴巴集团控股有限公司 | 视频标注方法、跟踪方法、装置、计算机设备及存储介质 |
CN110866936B (zh) * | 2018-08-07 | 2023-05-23 | 创新先进技术有限公司 | 视频标注方法、跟踪方法、装置、计算机设备及存储介质 |
CN110675424A (zh) * | 2019-09-29 | 2020-01-10 | 中科智感科技(湖南)有限公司 | 一种图像中目标物的跟踪方法、系统及相关装置 |
CN112085765A (zh) * | 2020-09-15 | 2020-12-15 | 浙江理工大学 | 结合粒子滤波及度量学习的视频目标跟踪方法 |
CN112085765B (zh) * | 2020-09-15 | 2024-05-31 | 浙江理工大学 | 结合粒子滤波及度量学习的视频目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103345762B (zh) | 2016-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106055091B (zh) | 一种基于深度信息和校正方式的手部姿态估计方法 | |
Konolige et al. | FrameSLAM: From bundle adjustment to real-time visual mapping | |
CN110956651A (zh) | 一种基于视觉和振动触觉融合的地形语义感知方法 | |
Angelova et al. | Slip prediction using visual information | |
CN110390685B (zh) | 一种基于事件相机的特征点跟踪方法 | |
Martins et al. | Extending maps with semantic and contextual object information for robot navigation: a learning-based framework using visual and depth cues | |
Anthwal et al. | An overview of optical flow-based approaches for motion segmentation | |
CN112541424A (zh) | 复杂环境下行人跌倒的实时检测方法 | |
CN114708293A (zh) | 基于深度学习点线特征和imu紧耦合的机器人运动估计方法 | |
CN117949942B (zh) | 基于雷达数据和视频数据融合的目标跟踪方法及系统 | |
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
Fernando et al. | Identification of moving obstacles with pyramidal Lucas Kanade optical flow and k means clustering | |
Ushani et al. | Feature learning for scene flow estimation from lidar | |
CN108764338A (zh) | 一种应用于视频分析的行人跟踪算法 | |
Savinykh et al. | Darkslam: Gan-assisted visual slam for reliable operation in low-light conditions | |
CN111739066B (zh) | 一种基于高斯过程的视觉定位方法、系统及存储介质 | |
CN117372460A (zh) | 一种基于自适应阈值边缘配准视觉里程计的月球车自主定位方法 | |
Firouznia et al. | Chaotic particle filter for visual object tracking | |
CN103345762A (zh) | 基于流形学习的贝叶斯视觉跟踪方法 | |
CN106485283B (zh) | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 | |
CN111552292A (zh) | 基于视觉的移动机器人路径生成与动态目标跟踪方法 | |
Yuan et al. | Multiple object detection and tracking from drone videos based on GM-YOLO and multi-tracker | |
CN111160231A (zh) | 一种基于Mask R-CNN的自动驾驶环境道路提取方法 | |
Oh et al. | Local selective vision transformer for depth estimation using a compound eye camera | |
CN111611869B (zh) | 一种基于串行深度神经网络的端到端单目视觉避障方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210308 Address after: 214500 Wuliqiao, east suburb, Jingjiang City, Taizhou City, Jiangsu Province Patentee after: JIANGSU SANLI HYDRAULIC MACHINERY Co.,Ltd. Address before: 214046 Room 101, building C, information industry science and Technology Park, No. 21, Changjiang Road, New District, Wuxi City, Jiangsu Province Patentee before: WUXI YINYU INTELLIGENT ROBOT Co.,Ltd. |
|
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160817 |