CN110992416A - 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 - Google Patents
基于双目视觉与cad模型的高反光面金属零件位姿测量方法 Download PDFInfo
- Publication number
- CN110992416A CN110992416A CN201911324796.5A CN201911324796A CN110992416A CN 110992416 A CN110992416 A CN 110992416A CN 201911324796 A CN201911324796 A CN 201911324796A CN 110992416 A CN110992416 A CN 110992416A
- Authority
- CN
- China
- Prior art keywords
- metal part
- feature
- template
- pose
- binocular vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002184 metal Substances 0.000 title claims abstract description 42
- 238000000691 measurement method Methods 0.000 title claims abstract description 10
- 238000005259 measurement Methods 0.000 claims abstract description 18
- 238000003384 imaging method Methods 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000002310 reflectometry Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 238000011960 computer-aided design Methods 0.000 abstract description 18
- 238000005498 polishing Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000009776 industrial production Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241000486761 Chilobrachys Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于机器人双目视觉与CAD模型的高反光面金属零件位姿测量方法,通过双目视觉测量深度原理获取金属零件表面多个特征点的3D坐标,并利用金属零件的CAD模型信息提高左右相机中对应点的配准率,最终实现对高反光金属零件的稳定精确位姿测量;本发明利用双目视觉系统和机械臂实现了对高反光金属零件的稳定位姿测量,克服了高反光零件成像不稳定而导致的位姿测量不稳定问题,大大提高了高反光零件的位姿测量稳定性,降低了对高反光金属零件的打光要求,减少了激光测距等辅助传感器的需求,提高了整个机器人双目视觉测量的灵活性和稳定性。
Description
技术领域
本发明涉及一种位姿测量方法,特别涉及一种高反光面金属零件位姿测量方法。
背景技术
随着科学技术的不断发展,工业生产技术的水平也在逐渐提高,尤其是工业机器人的有效运用,极大地提高了工业生产效率,促进了工业生产的长远发展[1]。随着人工智能技术的发展,机器视觉被引入工业机器人领域。基于机器视觉的工业机器人通过采集环境数据进行分析和处理,可获得工件的实时位置和姿态,引导搬运机器人机械臂动作[2]。传统的工业方法中,针对具有高反光特性的金属零件测量往往因为成像原因导致位姿测量结果不够精确和稳定。利用双目视觉系统和机械臂实现了对高反光金属零件的稳定位姿测量,大大提高了高反光零件的位姿测量稳定性,降低了对高反光金属零件的打光要求,减少了其它辅助传感器的需求,提高了整个机器人双目视觉测量的灵活性和稳定性。
[1]黄钊.工业机器人视觉系统的可靠定位分析[J].科技经济导刊,2019,27(24):34。
[2]熊磊翔,诸洪,余海勇,钟顺金,虞波.基于视觉的机器人抓取技术的研究[J].工业仪表与自动化装置,2017(05):41-43。
发明内容
本发明的目的是提供一种基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,克服了高反光零件成像不稳定而导致的位姿测量不稳定问题,大大提高了高反光零件的位姿测量稳定性,降低了对高反光金属零件的打光要求,减少了其它辅助传感器的需求,提高了整个机器人双目视觉测量的灵活性和稳定性。
本发明的目的是这样实现的:一种基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,包括离线CAD模型处理和在线工件位姿测量两个阶段:
离线阶段:
步骤S1:导入工件CAD模型,并根据高反光金属零件的实际成像特点提取模型的整体稳定特征,得到工件整体模板;
步骤S2:提取CAD模型中多个精特征,得到工件精特征模板;
步骤S3:计算精特征到整体模板中心的距离和角度,对每个精特征进行编号,同时保存精特征中心到整体模板中心的距离Li和角度信息θi;
在线阶段:
步骤S4:首先,机器人带动双目视觉相机到达高反光面金属零件上方,打开光源,双目相机采集金属零件的左右图像;
步骤S5:利用离线步骤S1得到的工件整体模板,在左右图像中分别对高反光金属零件进行模板匹配定位,得到模板匹配的位置(u,v)和角度α;
步骤S6:根据模板匹配的位置(u,v)和角度α并结合离线步骤S3得到的特征编号和精特征到模板中心的距离Li和角度θi,求取单特征预估计区域;
步骤S7:使用离线步骤S2获得的精特征模板,在预估区域中进行对应精特征的匹配定位,并对所定位结果进行编号和位置记录;
步骤S8:对左右图像进行特征配对筛选,如果左右图像对相同编号的特征都提取定位成功,将该特征作为重建特征;
步骤S9:根据左右图像的配对特征进行双目重建,重建特征点的3D坐标。该过程根据双目视觉系统内参数和相对位姿标定信息进行重建得到3D坐标(xmi,ymi,zmi),双目重建过程使用OpenCV的TriangulatePoints函数实现;
步骤S10:根据重建点的3D坐标,和CAD模型对应点的坐标(xi,yi,0)进行位姿变换关系构建和求解,即求取高反光金属零件的位姿;位姿求解过程使用OpenCV的estimateAffine3D函数实现。
作为本发明的进一步限定,步骤S3具体为:
求取单个特征与整个模型中心点的位姿关系,设距离为L,角度为θ;若某个精特征点坐标为(xi,yi),已知工件整体模板中心坐标为(x0,y0),则该精特征点与模板中心点的位姿关系计算公式为:
作为本发明的进一步限定,步骤S6具体为:
步骤S5中整体模板匹配所获得的结果为:中心位置(u,v),角度α,模板匹配的尺寸缩放比例为S0,则精特征的中心预估坐标(uei,vei)为:
uei=u-Li×S0×cos(θi-α)
vei=v-Li×S0×sin(θi-α)
对于圆孔精特征,以(uei,vei)为中心,以25像素为半径的圆形区域为该圆孔精特征的预估区域;对于长孔特征,以(uei,vei)为中心,以长边440像素,短边150像素,倾角α的矩形区域为预估区域。
作为本发明的进一步限定,步骤S7具体为:
对于已经编号和记录位置信息的特征点,在预估区域中进行具体特征的匹配定位(ui,vi),若匹配结果得分大于等于0.9,则表示该特征定位成功,(ui,vi)为具体的匹配位置;若得分小于0.9,则表示定位失败,则(ui,vi)为(-1,-1)。
作为本发明的进一步限定,步骤S10所构造的位姿变换关系为:
与现有技术相比,本发明的有益效果在于:针对工业生产中高反光面金属零件的位姿测量问题,提出了一种高反光面金属零件位姿测量方法,将双目立体视觉应用于工业机器人,同时结合CAD模板的离线匹配,克服了高反光面金属零件成像不稳定的问题,降低了对高反光金属零件的打光要求,减少了其它辅助传感器的需求,使得机器人对此类零件的位姿测量和抓取更加精准、稳定。
附图说明
图1为本发明中工件位姿测量流程图。
图2为本发明中精特征与模板中心位姿计算图。
图3为本发明中工件整体模板图。
图4为本发明中工件精特征模板图。
图5为本发明中工件整体模板粗定位图。
图6为本发明中单特征预估计区域图。
图7为本发明中精特征匹配定位图。
图8为本发明中特征配对筛选示意图。
具体实施方式
下面结合具体实施例对本发明做进一步说明。
如图1所示,一种基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,包括离线CAD模型处理和在线工件位姿测量两个阶段:
离线阶段:
步骤S1:导入工件CAD模型,并提取模型的整体稳定特征,得到工件整体模板(附图3);
步骤S2:提取CAD模型中多个精特征(即特征稳定的一些孔),得到工件精特征模板(附图4);
步骤S3:计算精特征到整体模板中心的距离和角度,对每个精特征进行编号,同时保存距离和角度的计算结果(附图2);
在线阶段:
步骤S4:首先,机器人带动双目视觉相机到达高反光面金属零件上方,打开光源,双目相机开始采集金属零件的图像,并记录此时机器人的位姿;
步骤S5:利用离线步骤S1得到的工件整体模板,在左右图像中分别对高反光金属零件进行模板匹配定位,以左图像为例,得到模板匹配的位置(1849.68,1552.11)和角度-1.9487°,模板尺寸缩放比例系数为1.02057(附图5);
步骤S6:根据精特征与整个模型中心点的位姿关系信息,以左图像为例,求取精特征预估计中心;
横坐标=[596.766,589.021,581.56,573.815,732.668,725.126,712.021,889.624,870.74,856.652,917.396,945.264,990.166,986.111,984.083,980.028,978.001,973.946,995.742,1327.83,1304.88,1373.1,1369.05,1367.02,1362.96,1360.94,1356.88,1392.93,1369.97,1440.86,1432.64,1533.31,1524.39,1791.26,1707.37,1698.45,1720.16,1697.21,1762.72,1753.8,1771.34,1748.39,1758.29,1848.5,1830.88,1897.38,1936.79,1927.87,2004.66,1995.74,1996.25,2022.58,2178.73,2169.81,2234.08,2225.16,2332.51,2309.56,2408.14,2399.22,2476.02,2467.1,2650.08,2641.16,2705.43,2696.51,2743.3,2720.35,2879.49,2870.57,2903.78,2880.83,3052.53,3044.06,3126.58,3118.84,3111.38,3103.63]
纵坐标=[1030.05,1362.51,1682.78,2015.24,1132.14,1455.89,2018.46,1945.27,1036.43,1865.44,1650.2,2023.89,1172.97,1347.03,1434.06,1608.12,1695.15,1869.22,2025.07,1047.08,2032.27,1181.89,1355.95,1442.98,1617.04,1704.07,1878.14,1048.6,2033.79,1159.08,2035.25,1212.44,1595.38,1966.28,1216.5,1599.43,1056.22,2041.41,1217.78,1600.72,1057.41,2042.6,1886.44,1109.37,1865.49,2046.08,1221.84,1604.78,1373.2,1756.13,2048.38,1232.2,1377.25,1760.19,1378.54,1761.48,1070.49,2055.68,1382.6,1765.53,1533.95,1916.89,1538.01,1920.94,1539.3,1922.23,1080.06,2065.25,1543.35,1926.29,1083.79,2068.99,1157.97,1521.41,1088.99,1421.44,1741.72,2074.18];
步骤S7:在预估区域中进行精特征的匹配定位,并根据离线步骤S2获得的精特征模板,以左图像为例,对所定位的特征进行编号和位置记录(附图7);
横坐标=[606.584,595.885,583.121,568.223,-1,-1,-1,894.648,-1,-1,927.01,951.025,-1,-1,-1,-1,-1,-1,1002.41,-1,1316.93,-1,-1,-1,-1,-1,1369.19,-1,-1,-1,-1,-1,-1,1805.73,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,2186.28,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,2752.06,-1,-1,-1,-1,-1,-1,-1,3123.52,3117.04,3110.07,3102.74];
纵坐标=[1019.11,1353.67,1678.82,2017.85,-1,-1,-1,1945.64,-1,-1,1646.59,2024.85,-1,-1,-1,-1,-1,-1,2026.43,-1,2032.28,-1,-1,-1,-1,-1,1877.91,-1,-1,-1,-1,-1,-1,1966.28,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,1759.62,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,1087.01,-1,-1,-1,-1,-1,-1,-1,1098.9,1425.64,1740.64,2069.35];
步骤S8:对左右图像进行特征配对筛选,如果左右图像对相同编号的特征都提取定位成功,将该特征作为重建特征(附图8);
左右图像中均成功提取的特征点编号为:[0,1,2,3,7,33,53,74,75,76,77];
步骤S9:根据左右图像的配对特征进行双目重建,重建特征点的3D坐标;
X=[-0.384434,-0.387435,-0.388974,-0.38987,-0.30065,-0.038519,0.0727586,0.346284,0.346086,0.342196,0.338409];
Y=[-0.0821424,0.0144304,0.107283,0.202288,0.184523,0.193039,0.133317,-0.0601822,0.0356644,0.127637,0.222873];
Z=[1.03026,1.02986,1.02412,1.01535,1.02788,1.03972,1.04435,1.04175,1.04682,1.04111,1.03594];
步骤S10:根据重建点的3D坐标,和CAD模型对应点的坐标(xi,yi,0)进行位姿变换关系构建和求解,即求取高反光金属零件的位姿。
所求解的位姿变换矩阵为:
步骤S3具体为(以编号):
求取单个特征与整个模型中心点的位姿关系,设距离为L,角度为θ。若某个精特征点坐标为(xi,yi),已知工件整体模板中心坐标为(x0,y0),则该精特征点与模板中心点的位姿关系计算公式为:
步骤S6具体为:
步骤S5中整体模板匹配所获得的结果为:中心位置(u,v),角度α,模板匹配的尺寸缩放比例为S0,则精特征的中心预估坐标(uei,vei)为:
uei=u-Li×S0×cos(θi-α)
vei=v-Li×S0×sin(θi-α)
对于圆孔精特征,以(uei,vei)为中心,以25像素为半径的圆形区域为该圆孔精特征的预估区域;对于长孔特征,以(uei,vei)为中心,以长边440像素,短边150像素,倾角α的矩形区域为预估区域。
步骤S7具体为:
对于已经编号和记录位置信息的特征点,在预估区域中进行具体特征的匹配定位,若匹配结果得分大于等于0.9,则表示该特征定位成功,记录定位信息;若得分小于0.9,则表示定位失败,将其赋值为“-1”,不记录定位信息。
本发明并不局限于上述实施例,在本发明公开的技术方案的基础上,本领域的技术人员根据所公开的技术内容,不需要创造性的劳动就可以对其中的一些技术特征作出一些替换和变形,这些替换和变形均在本发明的保护范围内。
Claims (5)
1.一种基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,其特征在于,包括离线CAD模型处理和在线工件位姿测量两个阶段:
离线阶段:
步骤S1:导入工件CAD模型,并根据高反光金属零件的实际成像特点提取模型的整体稳定特征,得到工件整体模板;
步骤S2:提取CAD模型中多个精特征,得到工件精特征模板;
步骤S3:计算精特征到整体模板中心的距离和角度,对每个精特征进行编号,同时保存精特征中心到整体模板中心的距离Li和角度信息θi;
在线阶段:
步骤S4:首先,机器人带动双目视觉相机到达高反光面金属零件上方,打开光源,双目相机采集金属零件的左右图像;
步骤S5:利用离线步骤S1得到的工件整体模板,在左右图像中分别对高反光金属零件进行模板匹配定位,得到模板匹配的位置(u,v)和角度α;
步骤S6:根据模板匹配的位置(u,v)和角度α并结合离线步骤S3得到的特征编号和精特征到模板中心的距离Li和角度θi,求取单特征预估计区域;
步骤S7:使用离线步骤S2获得的精特征模板,在预估区域中进行对应精特征的匹配定位,并对所定位结果进行编号和位置记录;
步骤S8:对左右图像进行特征配对筛选,如果左右图像对相同编号的特征都提取定位成功,将该特征作为重建特征;
步骤S9:根据左右图像的配对特征进行双目重建,重建特征点的3D坐标。该过程根据双目视觉系统内参数和相对位姿标定信息进行重建得到3D坐标(xmi,ymi,zmi),双目重建过程使用OpenCV的TriangulatePoints函数实现;
步骤S10:根据重建点的3D坐标,和CAD模型对应点的坐标(xi,yi,0)进行位姿变换关系构建和求解,即求取高反光金属零件的位姿;位姿求解过程使用OpenCV的estimateAffine3D函数实现。
3.根据权利要求2所述的基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,其特征在于,步骤S6具体为:
步骤S5中整体模板匹配所获得的结果为:中心位置(u,v),角度α,模板匹配的尺寸缩放比例为S0,则精特征的中心预估坐标(uei,vei)为:
uei=u-Li×S0×cos(θi-α)
vei=v-Li×S0×sin(θi-α)
对于圆孔精特征,以(uei,vei)为中心,以25像素为半径的圆形区域为该圆孔精特征的预估区域;对于长孔特征,以(uei,vei)为中心,以长边440像素,短边150像素,倾角α的矩形区域为预估区域。
4.根据权利要求3所述的基于双目视觉与CAD模型的高反光面金属零件位姿测量方法,其特征在于,步骤S7具体为:
对于已经编号和记录位置信息的特征点,在预估区域中进行具体特征的匹配定位(ui,vi),若匹配结果得分大于等于0.9,则表示该特征定位成功,(ui,vi)为具体的匹配位置;若得分小于0.9,则表示定位失败,则(ui,vi)为(-1,-1)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911324796.5A CN110992416A (zh) | 2019-12-20 | 2019-12-20 | 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911324796.5A CN110992416A (zh) | 2019-12-20 | 2019-12-20 | 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110992416A true CN110992416A (zh) | 2020-04-10 |
Family
ID=70073441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911324796.5A Pending CN110992416A (zh) | 2019-12-20 | 2019-12-20 | 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110992416A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112304217A (zh) * | 2020-10-15 | 2021-02-02 | 浙江大学台州研究院 | 一种基于机器视觉的尺寸测量评分装置及评分方法 |
WO2022036479A1 (zh) * | 2020-08-17 | 2022-02-24 | 江苏瑞科科技有限公司 | 一种ar辅助装配中的基体及零件位姿估计方法 |
CN117282718A (zh) * | 2023-11-24 | 2023-12-26 | 无锡出新环保设备有限公司 | 一种电镀件镀前超声波除油装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107192331A (zh) * | 2017-06-20 | 2017-09-22 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于双目视觉的工件抓取方法 |
US20180116556A1 (en) * | 2016-10-27 | 2018-05-03 | Nanjing Avatarmind Robot Technology Co., Ltd. | Height measurement method based on monocular machine vision |
CN109029257A (zh) * | 2018-07-12 | 2018-12-18 | 中国科学院自动化研究所 | 基于立体视觉和结构光视觉的大型工件位姿测量系统、方法 |
-
2019
- 2019-12-20 CN CN201911324796.5A patent/CN110992416A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180116556A1 (en) * | 2016-10-27 | 2018-05-03 | Nanjing Avatarmind Robot Technology Co., Ltd. | Height measurement method based on monocular machine vision |
CN107192331A (zh) * | 2017-06-20 | 2017-09-22 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于双目视觉的工件抓取方法 |
CN109029257A (zh) * | 2018-07-12 | 2018-12-18 | 中国科学院自动化研究所 | 基于立体视觉和结构光视觉的大型工件位姿测量系统、方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022036479A1 (zh) * | 2020-08-17 | 2022-02-24 | 江苏瑞科科技有限公司 | 一种ar辅助装配中的基体及零件位姿估计方法 |
CN112304217A (zh) * | 2020-10-15 | 2021-02-02 | 浙江大学台州研究院 | 一种基于机器视觉的尺寸测量评分装置及评分方法 |
CN117282718A (zh) * | 2023-11-24 | 2023-12-26 | 无锡出新环保设备有限公司 | 一种电镀件镀前超声波除油装置 |
CN117282718B (zh) * | 2023-11-24 | 2024-02-27 | 无锡出新环保设备有限公司 | 一种电镀件镀前超声波除油装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112476434B (zh) | 一种基于协作机器人的视觉3d取放方法及系统 | |
CN111775152B (zh) | 基于三维测量引导机械臂抓取散乱堆叠工件的方法及系统 | |
CN111089569B (zh) | 一种基于单目视觉的大型箱体测量方法 | |
CN109308693B (zh) | 由一台ptz相机构建的目标检测和位姿测量单双目视觉系统 | |
CN110014426B (zh) | 一种利用低精度深度相机高精度抓取形状对称工件的方法 | |
CN105740899B (zh) | 一种机器视觉图像特征点检测与匹配复合的优化方法 | |
CN105021124B (zh) | 一种基于深度图的平面零件三维位置和法向量计算方法 | |
CN111476841B (zh) | 一种基于点云和图像的识别定位方法及系统 | |
Qin et al. | Precise robotic assembly for large-scale objects based on automatic guidance and alignment | |
CN107588721A (zh) | 一种基于双目视觉的零件多尺寸的测量方法及系统 | |
CN112509063A (zh) | 一种基于边缘特征匹配的机械臂抓取系统及方法 | |
CN110992416A (zh) | 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 | |
CN110136211A (zh) | 一种基于主动双目视觉技术的工件定位方法及系统 | |
CN114355953A (zh) | 一种基于机器视觉的多轴伺服系统的高精度控制方法及系统 | |
CN114022542A (zh) | 一种基于三维重建的3d数据库制作方法 | |
CN113554757A (zh) | 基于数字孪生的工件轨迹三维重构方法及系统 | |
CN113221953B (zh) | 基于实例分割和双目深度估计的目标姿态识别系统与方法 | |
CN112658643B (zh) | 接插件装配方法 | |
CN105425724A (zh) | 一种基于机器视觉扫描成像的高精度运动定位方法及装置 | |
WO2024045274A1 (zh) | 机器人视觉系统的手眼标定方法、系统、终端及介质 | |
CN115311371A (zh) | 一种双机器人自动测量划线系统标定方法 | |
CN115112098B (zh) | 一种单目视觉的一维二维测量方法 | |
Zhang et al. | High-precision pose estimation method of the 3C parts by combining 2D and 3D vision for robotic grasping in assembly applications | |
CN113733078B (zh) | 机械臂精调控制量判读方法、计算机可读存储介质 | |
Li et al. | Pose estimation of metal workpieces based on RPM-Net for robot grasping from point cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200410 |