[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN110992416A - 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 - Google Patents

基于双目视觉与cad模型的高反光面金属零件位姿测量方法 Download PDF

Info

Publication number
CN110992416A
CN110992416A CN201911324796.5A CN201911324796A CN110992416A CN 110992416 A CN110992416 A CN 110992416A CN 201911324796 A CN201911324796 A CN 201911324796A CN 110992416 A CN110992416 A CN 110992416A
Authority
CN
China
Prior art keywords
metal part
feature
template
pose
binocular vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911324796.5A
Other languages
English (en)
Inventor
李福东
姜定
朱文俊
杨月全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangzhou University
Original Assignee
Yangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangzhou University filed Critical Yangzhou University
Priority to CN201911324796.5A priority Critical patent/CN110992416A/zh
Publication of CN110992416A publication Critical patent/CN110992416A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于机器人双目视觉与CAD模型的高反光面金属零件位姿测量方法,通过双目视觉测量深度原理获取金属零件表面多个特征点的3D坐标,并利用金属零件的CAD模型信息提高左右相机中对应点的配准率,最终实现对高反光金属零件的稳定精确位姿测量;本发明利用双目视觉系统和机械臂实现了对高反光金属零件的稳定位姿测量,克服了高反光零件成像不稳定而导致的位姿测量不稳定问题,大大提高了高反光零件的位姿测量稳定性,降低了对高反光金属零件的打光要求,减少了激光测距等辅助传感器的需求,提高了整个机器人双目视觉测量的灵活性和稳定性。

Description

基于双目视觉与CAD模型的高反光面金属零件位姿测量方法
技术领域
本发明涉及一种位姿测量方法,特别涉及一种高反光面金属零件位姿测量方法。
背景技术
随着科学技术的不断发展,工业生产技术的水平也在逐渐提高,尤其是工业机器人的有效运用,极大地提高了工业生产效率,促进了工业生产的长远发展[1]。随着人工智能技术的发展,机器视觉被引入工业机器人领域。基于机器视觉的工业机器人通过采集环境数据进行分析和处理,可获得工件的实时位置和姿态,引导搬运机器人机械臂动作[2]。传统的工业方法中,针对具有高反光特性的金属零件测量往往因为成像原因导致位姿测量结果不够精确和稳定。利用双目视觉系统和机械臂实现了对高反光金属零件的稳定位姿测量,大大提高了高反光零件的位姿测量稳定性,降低了对高反光金属零件的打光要求,减少了其它辅助传感器的需求,提高了整个机器人双目视觉测量的灵活性和稳定性。
[1]黄钊.工业机器人视觉系统的可靠定位分析[J].科技经济导刊,2019,27(24):34。
[2]熊磊翔,诸洪,余海勇,钟顺金,虞波.基于视觉的机器人抓取技术的研究[J].工业仪表与自动化装置,2017(05):41-43。
发明内容
本发明的目的是提供一种基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,克服了高反光零件成像不稳定而导致的位姿测量不稳定问题,大大提高了高反光零件的位姿测量稳定性,降低了对高反光金属零件的打光要求,减少了其它辅助传感器的需求,提高了整个机器人双目视觉测量的灵活性和稳定性。
本发明的目的是这样实现的:一种基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,包括离线CAD模型处理和在线工件位姿测量两个阶段:
离线阶段:
步骤S1:导入工件CAD模型,并根据高反光金属零件的实际成像特点提取模型的整体稳定特征,得到工件整体模板;
步骤S2:提取CAD模型中多个精特征,得到工件精特征模板;
步骤S3:计算精特征到整体模板中心的距离和角度,对每个精特征进行编号,同时保存精特征中心到整体模板中心的距离Li和角度信息θi
在线阶段:
步骤S4:首先,机器人带动双目视觉相机到达高反光面金属零件上方,打开光源,双目相机采集金属零件的左右图像;
步骤S5:利用离线步骤S1得到的工件整体模板,在左右图像中分别对高反光金属零件进行模板匹配定位,得到模板匹配的位置(u,v)和角度α;
步骤S6:根据模板匹配的位置(u,v)和角度α并结合离线步骤S3得到的特征编号和精特征到模板中心的距离Li和角度θi,求取单特征预估计区域;
步骤S7:使用离线步骤S2获得的精特征模板,在预估区域中进行对应精特征的匹配定位,并对所定位结果进行编号和位置记录;
步骤S8:对左右图像进行特征配对筛选,如果左右图像对相同编号的特征都提取定位成功,将该特征作为重建特征;
步骤S9:根据左右图像的配对特征进行双目重建,重建特征点的3D坐标。该过程根据双目视觉系统内参数和相对位姿标定信息进行重建得到3D坐标(xmi,ymi,zmi),双目重建过程使用OpenCV的TriangulatePoints函数实现;
步骤S10:根据重建点的3D坐标,和CAD模型对应点的坐标(xi,yi,0)进行位姿变换关系构建和求解,即求取高反光金属零件的位姿;位姿求解过程使用OpenCV的estimateAffine3D函数实现。
作为本发明的进一步限定,步骤S3具体为:
求取单个特征与整个模型中心点的位姿关系,设距离为L,角度为θ;若某个精特征点坐标为(xi,yi),已知工件整体模板中心坐标为(x0,y0),则该精特征点与模板中心点的位姿关系计算公式为:
Figure BDA0002328095500000031
Figure BDA0002328095500000032
作为本发明的进一步限定,步骤S6具体为:
步骤S5中整体模板匹配所获得的结果为:中心位置(u,v),角度α,模板匹配的尺寸缩放比例为S0,则精特征的中心预估坐标(uei,vei)为:
uei=u-Li×S0×cos(θi-α)
vei=v-Li×S0×sin(θi-α)
对于圆孔精特征,以(uei,vei)为中心,以25像素为半径的圆形区域为该圆孔精特征的预估区域;对于长孔特征,以(uei,vei)为中心,以长边440像素,短边150像素,倾角α的矩形区域为预估区域。
作为本发明的进一步限定,步骤S7具体为:
对于已经编号和记录位置信息的特征点,在预估区域中进行具体特征的匹配定位(ui,vi),若匹配结果得分大于等于0.9,则表示该特征定位成功,(ui,vi)为具体的匹配位置;若得分小于0.9,则表示定位失败,则(ui,vi)为(-1,-1)。
作为本发明的进一步限定,步骤S10所构造的位姿变换关系为:
Figure BDA0002328095500000033
与现有技术相比,本发明的有益效果在于:针对工业生产中高反光面金属零件的位姿测量问题,提出了一种高反光面金属零件位姿测量方法,将双目立体视觉应用于工业机器人,同时结合CAD模板的离线匹配,克服了高反光面金属零件成像不稳定的问题,降低了对高反光金属零件的打光要求,减少了其它辅助传感器的需求,使得机器人对此类零件的位姿测量和抓取更加精准、稳定。
附图说明
图1为本发明中工件位姿测量流程图。
图2为本发明中精特征与模板中心位姿计算图。
图3为本发明中工件整体模板图。
图4为本发明中工件精特征模板图。
图5为本发明中工件整体模板粗定位图。
图6为本发明中单特征预估计区域图。
图7为本发明中精特征匹配定位图。
图8为本发明中特征配对筛选示意图。
具体实施方式
下面结合具体实施例对本发明做进一步说明。
如图1所示,一种基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,包括离线CAD模型处理和在线工件位姿测量两个阶段:
离线阶段:
步骤S1:导入工件CAD模型,并提取模型的整体稳定特征,得到工件整体模板(附图3);
步骤S2:提取CAD模型中多个精特征(即特征稳定的一些孔),得到工件精特征模板(附图4);
步骤S3:计算精特征到整体模板中心的距离和角度,对每个精特征进行编号,同时保存距离和角度的计算结果(附图2);
在线阶段:
步骤S4:首先,机器人带动双目视觉相机到达高反光面金属零件上方,打开光源,双目相机开始采集金属零件的图像,并记录此时机器人的位姿;
步骤S5:利用离线步骤S1得到的工件整体模板,在左右图像中分别对高反光金属零件进行模板匹配定位,以左图像为例,得到模板匹配的位置(1849.68,1552.11)和角度-1.9487°,模板尺寸缩放比例系数为1.02057(附图5);
步骤S6:根据精特征与整个模型中心点的位姿关系信息,以左图像为例,求取精特征预估计中心;
横坐标=[596.766,589.021,581.56,573.815,732.668,725.126,712.021,889.624,870.74,856.652,917.396,945.264,990.166,986.111,984.083,980.028,978.001,973.946,995.742,1327.83,1304.88,1373.1,1369.05,1367.02,1362.96,1360.94,1356.88,1392.93,1369.97,1440.86,1432.64,1533.31,1524.39,1791.26,1707.37,1698.45,1720.16,1697.21,1762.72,1753.8,1771.34,1748.39,1758.29,1848.5,1830.88,1897.38,1936.79,1927.87,2004.66,1995.74,1996.25,2022.58,2178.73,2169.81,2234.08,2225.16,2332.51,2309.56,2408.14,2399.22,2476.02,2467.1,2650.08,2641.16,2705.43,2696.51,2743.3,2720.35,2879.49,2870.57,2903.78,2880.83,3052.53,3044.06,3126.58,3118.84,3111.38,3103.63]
纵坐标=[1030.05,1362.51,1682.78,2015.24,1132.14,1455.89,2018.46,1945.27,1036.43,1865.44,1650.2,2023.89,1172.97,1347.03,1434.06,1608.12,1695.15,1869.22,2025.07,1047.08,2032.27,1181.89,1355.95,1442.98,1617.04,1704.07,1878.14,1048.6,2033.79,1159.08,2035.25,1212.44,1595.38,1966.28,1216.5,1599.43,1056.22,2041.41,1217.78,1600.72,1057.41,2042.6,1886.44,1109.37,1865.49,2046.08,1221.84,1604.78,1373.2,1756.13,2048.38,1232.2,1377.25,1760.19,1378.54,1761.48,1070.49,2055.68,1382.6,1765.53,1533.95,1916.89,1538.01,1920.94,1539.3,1922.23,1080.06,2065.25,1543.35,1926.29,1083.79,2068.99,1157.97,1521.41,1088.99,1421.44,1741.72,2074.18];
步骤S7:在预估区域中进行精特征的匹配定位,并根据离线步骤S2获得的精特征模板,以左图像为例,对所定位的特征进行编号和位置记录(附图7);
横坐标=[606.584,595.885,583.121,568.223,-1,-1,-1,894.648,-1,-1,927.01,951.025,-1,-1,-1,-1,-1,-1,1002.41,-1,1316.93,-1,-1,-1,-1,-1,1369.19,-1,-1,-1,-1,-1,-1,1805.73,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,2186.28,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,2752.06,-1,-1,-1,-1,-1,-1,-1,3123.52,3117.04,3110.07,3102.74];
纵坐标=[1019.11,1353.67,1678.82,2017.85,-1,-1,-1,1945.64,-1,-1,1646.59,2024.85,-1,-1,-1,-1,-1,-1,2026.43,-1,2032.28,-1,-1,-1,-1,-1,1877.91,-1,-1,-1,-1,-1,-1,1966.28,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,1759.62,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,1087.01,-1,-1,-1,-1,-1,-1,-1,1098.9,1425.64,1740.64,2069.35];
步骤S8:对左右图像进行特征配对筛选,如果左右图像对相同编号的特征都提取定位成功,将该特征作为重建特征(附图8);
左右图像中均成功提取的特征点编号为:[0,1,2,3,7,33,53,74,75,76,77];
步骤S9:根据左右图像的配对特征进行双目重建,重建特征点的3D坐标;
X=[-0.384434,-0.387435,-0.388974,-0.38987,-0.30065,-0.038519,0.0727586,0.346284,0.346086,0.342196,0.338409];
Y=[-0.0821424,0.0144304,0.107283,0.202288,0.184523,0.193039,0.133317,-0.0601822,0.0356644,0.127637,0.222873];
Z=[1.03026,1.02986,1.02412,1.01535,1.02788,1.03972,1.04435,1.04175,1.04682,1.04111,1.03594];
步骤S10:根据重建点的3D坐标,和CAD模型对应点的坐标(xi,yi,0)进行位姿变换关系构建和求解,即求取高反光金属零件的位姿。
所求解的位姿变换矩阵为:
Figure BDA0002328095500000071
步骤S3具体为(以编号):
求取单个特征与整个模型中心点的位姿关系,设距离为L,角度为θ。若某个精特征点坐标为(xi,yi),已知工件整体模板中心坐标为(x0,y0),则该精特征点与模板中心点的位姿关系计算公式为:
Figure BDA0002328095500000072
Figure BDA0002328095500000081
步骤S6具体为:
步骤S5中整体模板匹配所获得的结果为:中心位置(u,v),角度α,模板匹配的尺寸缩放比例为S0,则精特征的中心预估坐标(uei,vei)为:
uei=u-Li×S0×cos(θi-α)
vei=v-Li×S0×sin(θi-α)
对于圆孔精特征,以(uei,vei)为中心,以25像素为半径的圆形区域为该圆孔精特征的预估区域;对于长孔特征,以(uei,vei)为中心,以长边440像素,短边150像素,倾角α的矩形区域为预估区域。
步骤S7具体为:
对于已经编号和记录位置信息的特征点,在预估区域中进行具体特征的匹配定位,若匹配结果得分大于等于0.9,则表示该特征定位成功,记录定位信息;若得分小于0.9,则表示定位失败,将其赋值为“-1”,不记录定位信息。
本发明并不局限于上述实施例,在本发明公开的技术方案的基础上,本领域的技术人员根据所公开的技术内容,不需要创造性的劳动就可以对其中的一些技术特征作出一些替换和变形,这些替换和变形均在本发明的保护范围内。

Claims (5)

1.一种基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,其特征在于,包括离线CAD模型处理和在线工件位姿测量两个阶段:
离线阶段:
步骤S1:导入工件CAD模型,并根据高反光金属零件的实际成像特点提取模型的整体稳定特征,得到工件整体模板;
步骤S2:提取CAD模型中多个精特征,得到工件精特征模板;
步骤S3:计算精特征到整体模板中心的距离和角度,对每个精特征进行编号,同时保存精特征中心到整体模板中心的距离Li和角度信息θi
在线阶段:
步骤S4:首先,机器人带动双目视觉相机到达高反光面金属零件上方,打开光源,双目相机采集金属零件的左右图像;
步骤S5:利用离线步骤S1得到的工件整体模板,在左右图像中分别对高反光金属零件进行模板匹配定位,得到模板匹配的位置(u,v)和角度α;
步骤S6:根据模板匹配的位置(u,v)和角度α并结合离线步骤S3得到的特征编号和精特征到模板中心的距离Li和角度θi,求取单特征预估计区域;
步骤S7:使用离线步骤S2获得的精特征模板,在预估区域中进行对应精特征的匹配定位,并对所定位结果进行编号和位置记录;
步骤S8:对左右图像进行特征配对筛选,如果左右图像对相同编号的特征都提取定位成功,将该特征作为重建特征;
步骤S9:根据左右图像的配对特征进行双目重建,重建特征点的3D坐标。该过程根据双目视觉系统内参数和相对位姿标定信息进行重建得到3D坐标(xmi,ymi,zmi),双目重建过程使用OpenCV的TriangulatePoints函数实现;
步骤S10:根据重建点的3D坐标,和CAD模型对应点的坐标(xi,yi,0)进行位姿变换关系构建和求解,即求取高反光金属零件的位姿;位姿求解过程使用OpenCV的estimateAffine3D函数实现。
2.根据权利要求1所述的基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,其特征在于,步骤S3具体为:
求取单个特征与整个模型中心点的位姿关系,设距离为L,角度为θ;若某个精特征点坐标为(xi,yi),已知工件整体模板中心坐标为(x0,y0),则该精特征点与模板中心点的位姿关系计算公式为:
Figure FDA0002328095490000021
Figure FDA0002328095490000022
3.根据权利要求2所述的基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,其特征在于,步骤S6具体为:
步骤S5中整体模板匹配所获得的结果为:中心位置(u,v),角度α,模板匹配的尺寸缩放比例为S0,则精特征的中心预估坐标(uei,vei)为:
uei=u-Li×S0×cos(θi-α)
vei=v-Li×S0×sin(θi-α)
对于圆孔精特征,以(uei,vei)为中心,以25像素为半径的圆形区域为该圆孔精特征的预估区域;对于长孔特征,以(uei,vei)为中心,以长边440像素,短边150像素,倾角α的矩形区域为预估区域。
4.根据权利要求3所述的基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,其特征在于,步骤S7具体为:
对于已经编号和记录位置信息的特征点,在预估区域中进行具体特征的匹配定位(ui,vi),若匹配结果得分大于等于0.9,则表示该特征定位成功,(ui,vi)为具体的匹配位置;若得分小于0.9,则表示定位失败,则(ui,vi)为(-1,-1)。
5.根据权利要求4所述的基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,其特征在于,步骤S10所构造的位姿变换关系为:
Figure FDA0002328095490000031
CN201911324796.5A 2019-12-20 2019-12-20 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 Pending CN110992416A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911324796.5A CN110992416A (zh) 2019-12-20 2019-12-20 基于双目视觉与cad模型的高反光面金属零件位姿测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911324796.5A CN110992416A (zh) 2019-12-20 2019-12-20 基于双目视觉与cad模型的高反光面金属零件位姿测量方法

Publications (1)

Publication Number Publication Date
CN110992416A true CN110992416A (zh) 2020-04-10

Family

ID=70073441

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911324796.5A Pending CN110992416A (zh) 2019-12-20 2019-12-20 基于双目视觉与cad模型的高反光面金属零件位姿测量方法

Country Status (1)

Country Link
CN (1) CN110992416A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112304217A (zh) * 2020-10-15 2021-02-02 浙江大学台州研究院 一种基于机器视觉的尺寸测量评分装置及评分方法
WO2022036479A1 (zh) * 2020-08-17 2022-02-24 江苏瑞科科技有限公司 一种ar辅助装配中的基体及零件位姿估计方法
CN117282718A (zh) * 2023-11-24 2023-12-26 无锡出新环保设备有限公司 一种电镀件镀前超声波除油装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107192331A (zh) * 2017-06-20 2017-09-22 佛山市南海区广工大数控装备协同创新研究院 一种基于双目视觉的工件抓取方法
US20180116556A1 (en) * 2016-10-27 2018-05-03 Nanjing Avatarmind Robot Technology Co., Ltd. Height measurement method based on monocular machine vision
CN109029257A (zh) * 2018-07-12 2018-12-18 中国科学院自动化研究所 基于立体视觉和结构光视觉的大型工件位姿测量系统、方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180116556A1 (en) * 2016-10-27 2018-05-03 Nanjing Avatarmind Robot Technology Co., Ltd. Height measurement method based on monocular machine vision
CN107192331A (zh) * 2017-06-20 2017-09-22 佛山市南海区广工大数控装备协同创新研究院 一种基于双目视觉的工件抓取方法
CN109029257A (zh) * 2018-07-12 2018-12-18 中国科学院自动化研究所 基于立体视觉和结构光视觉的大型工件位姿测量系统、方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022036479A1 (zh) * 2020-08-17 2022-02-24 江苏瑞科科技有限公司 一种ar辅助装配中的基体及零件位姿估计方法
CN112304217A (zh) * 2020-10-15 2021-02-02 浙江大学台州研究院 一种基于机器视觉的尺寸测量评分装置及评分方法
CN117282718A (zh) * 2023-11-24 2023-12-26 无锡出新环保设备有限公司 一种电镀件镀前超声波除油装置
CN117282718B (zh) * 2023-11-24 2024-02-27 无锡出新环保设备有限公司 一种电镀件镀前超声波除油装置

Similar Documents

Publication Publication Date Title
CN112476434B (zh) 一种基于协作机器人的视觉3d取放方法及系统
CN111775152B (zh) 基于三维测量引导机械臂抓取散乱堆叠工件的方法及系统
CN111089569B (zh) 一种基于单目视觉的大型箱体测量方法
CN109308693B (zh) 由一台ptz相机构建的目标检测和位姿测量单双目视觉系统
CN110014426B (zh) 一种利用低精度深度相机高精度抓取形状对称工件的方法
CN105740899B (zh) 一种机器视觉图像特征点检测与匹配复合的优化方法
CN105021124B (zh) 一种基于深度图的平面零件三维位置和法向量计算方法
CN111476841B (zh) 一种基于点云和图像的识别定位方法及系统
Qin et al. Precise robotic assembly for large-scale objects based on automatic guidance and alignment
CN107588721A (zh) 一种基于双目视觉的零件多尺寸的测量方法及系统
CN112509063A (zh) 一种基于边缘特征匹配的机械臂抓取系统及方法
CN110992416A (zh) 基于双目视觉与cad模型的高反光面金属零件位姿测量方法
CN110136211A (zh) 一种基于主动双目视觉技术的工件定位方法及系统
CN114355953A (zh) 一种基于机器视觉的多轴伺服系统的高精度控制方法及系统
CN114022542A (zh) 一种基于三维重建的3d数据库制作方法
CN113554757A (zh) 基于数字孪生的工件轨迹三维重构方法及系统
CN113221953B (zh) 基于实例分割和双目深度估计的目标姿态识别系统与方法
CN112658643B (zh) 接插件装配方法
CN105425724A (zh) 一种基于机器视觉扫描成像的高精度运动定位方法及装置
WO2024045274A1 (zh) 机器人视觉系统的手眼标定方法、系统、终端及介质
CN115311371A (zh) 一种双机器人自动测量划线系统标定方法
CN115112098B (zh) 一种单目视觉的一维二维测量方法
Zhang et al. High-precision pose estimation method of the 3C parts by combining 2D and 3D vision for robotic grasping in assembly applications
CN113733078B (zh) 机械臂精调控制量判读方法、计算机可读存储介质
Li et al. Pose estimation of metal workpieces based on RPM-Net for robot grasping from point cloud

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200410