CN114761180B - 机器人系统 - Google Patents
机器人系统 Download PDFInfo
- Publication number
- CN114761180B CN114761180B CN202080084991.XA CN202080084991A CN114761180B CN 114761180 B CN114761180 B CN 114761180B CN 202080084991 A CN202080084991 A CN 202080084991A CN 114761180 B CN114761180 B CN 114761180B
- Authority
- CN
- China
- Prior art keywords
- robot
- workpiece
- operator
- dimensional model
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000012636 effector Substances 0.000 claims description 29
- 238000010586 diagram Methods 0.000 description 16
- 230000004048 modification Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 15
- 239000007788 liquid Substances 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004140 cleaning Methods 0.000 description 5
- 238000003466 welding Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 239000011248 coating agent Substances 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 239000007789 gas Substances 0.000 description 3
- 239000003973 paint Substances 0.000 description 3
- 238000010422 painting Methods 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 238000005498 polishing Methods 0.000 description 3
- 238000005507 spraying Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/02—Hand grip control means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
- B25J13/065—Control stands, e.g. consoles, switchboards comprising joy-sticks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/409—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35348—Different colour, texture as function of distance, direction between tool and workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37422—Distance and attitude detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40127—Virtual tape measure, indicate distance between end effector and destination
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40195—Tele-operation, computer assisted manual operation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本公开的机器人系统(100)具备设置在作业区域(201)内的机器人(101)、操作器(102)、显示装置(105)以及控制装置(111),控制装置(111)在基于从操作器(102)输入的机器人(101)的操作指令信息、使机器人(101)动作来对工件(300)执行预先决定好的种类的作业的情况下,基于工件(300)的三维模型信息、机器人(101)的三维模型信息以及操作指令信息,将从与操作者从作为与作业区域(201)不同的空间的操作区域(202)观察机器人(101)的方向不同的方向进行观察的情况下的工件(300)和机器人(101)之间的位置关系显示于显示装置(105)。
Description
相关申请的交叉引用
本申请主张2019年12月13日在日本专利局提出的日本特愿2019-225563号的优先权,并通过参照而引用整个基础申请作为本申请的一部分。
技术领域
本公开涉及机器人系统。
背景技术
公知有用于对作业环境中的机器人进行远程操作控制的远程操作控制装置(例如,参照专利文献1)。专利文献1所公开的远程操作控制装置具备:捕捉作业环境的影像的摄像机、将与在作业环境中成为机器人的作业对象的物体的位置姿势等相关的信息等作为环境模型存储的环境模型存储单元、生成合成图像的合成图像生成单元,该合成图像由摄像机捕捉到的影像和将从环境模型存储单元获得的与定位相关的信息图形化而显示的图像合成而成,在通过操作单元进行机器人的手动操作时,能够将合成图像显示于显示单元来引导手动操作。
专利文献1:日本特开2003-311661号公报
然而,用于对工件进行涂装的涂装用机器人配置在防爆区域。因此,作业人员(操作者)为了使用上述专利文献1所公开的远程操作控制装置来远程操作涂装用机器人,需要在防爆区域配置防爆规格的摄像机。防爆规格的摄像机价格昂贵,会使设备成本增加。此外,若涂装的工件的大小变化,则也有需要改变摄像机的拍摄位置的情况。在这样的情况下,会增加作业人员的作业负担。此外,有时由于喷射的涂料,从摄像机看不见机器人的前端部分和工件。在这样的情况下,也需要改变摄像机的拍摄位置,会增加作业人员的作业负担。同样地,有时由于焊接所产生的光、为了清洗或者磨削而喷射(喷出)的流体,从摄像机看不见机器人的前端部分和工件。在这样的情况下,也需要改变摄像机的拍摄位置,会增加作业人员的作业负担。
发明内容
本公开用于解决上述课题,其目的在于提供一种能够降低设备成本的机器人系统。此外,其目的还在于提供一种能够减轻操作者的负担并提高作业效率的机器人系统。
本公开的机器人系统具备:机器人,其设置在作业区域内;操作器;显示装置;以及控制装置,上述控制装置在基于从上述操作器输入的上述机器人的操作指令信息、使上述机器人动作来对工件执行预先决定好的种类的作业的情况下,基于上述工件的三维模型信息、上述机器人的三维模型信息以及上述操作指令信息,将从与操作者从操作区域观察上述机器人的方向不同的方向进行观察的情况下的上述工件和上述机器人之间的位置关系显示于上述显示装置,上述操作区域是与上述作业区域不同的空间。
根据该形态的机器人系统,不在作业区域配置摄像机,就能够由操作者远程操作机器人,因此能够实现设备成本的降低。工件与机器人的前端部之间的位置关系被显示于显示装置,因此能够使操作者知道工件与机器人的前端部之间的位置关系。因此,能够减轻操作者的负担并提高作业效率。
附图说明
图1是表示本实施方式1的机器人系统的概略结构的示意图。
图2是表示机器人的概略结构的示意图。
图3是表示从窗观察作业区域的状态的示意图。
图4是表示本实施方式1的机器人系统的动作的一个例子的流程图。
图5是表示本实施方式1的变形例1的机器人系统的概略结构的示意图。
图6是表示本实施方式1的变形例1的机器人系统的概略结构的示意图。
图7是表示本实施方式2的机器人系统的概略结构的示意图。
图8是表示本实施方式3的机器人系统的概略结构的示意图。
图9是表示本实施方式3的机器人系统的动作的一个例子的流程图。
图10是表示本实施方式3的变形例1的机器人系统的概略结构的示意图。
图11是表示本实施方式4的机器人系统的概略结构的示意图。
图12A是表示本实施方式4的机器人系统的动作的一个例子的流程图。
图12B是表示本实施方式4的机器人系统的动作的一个例子的流程图。
具体实施方式
以下,一边参照附图一边对本公开的实施方式进行说明。另外,在所有附图中,对相同或者相当的部分标注同一附图标记,并省略重复的说明。此外,在所有附图中,有时将用于说明本发明的构成要素选出并进行图示,省略其它构成要素的图示。并且,本发明并不局限于以下的实施方式。
(实施方式1)
[机器人系统的结构]
图1是表示本实施方式1的机器人系统的概略结构的示意图。如图1所示,机器人系统100具备机器人101、操作器102、显示装置105以及控制装置111。
机器人101对工件300进行预先决定好的种类的作业。“预先决定好的作业”是指,对工件300的表面喷雾或者喷射颗粒、液体或气体的作业、对工件300进行焊接、切削、清洗以及研磨的作业中的任一作业。机器人101通过由操作者操作操作器102来进行远程控制,执行上述作业。另外,关于机器人101的详细结构,将在后文叙述。
机器人101设置在作业区域201内,操作器102、显示装置105以及控制装置111配置在操作区域202。作业区域201至少包含机器人101的动作范围内的空间。操作区域202是与作业区域201不同的空间。在本实施方式中,在作业区域201与操作区域202之间设有壁部件203,作业区域201与操作区域202被壁部件203划分开。在壁部件203设有由透明部件构成的窗204,操作者在操作区域202就能够目视确认作业区域201内的机器人101。另外,作业区域201也可以是实施了防爆对策的防爆区域,操作区域202也可以是未实施防爆对策的非防爆区域。在图1中,将规定设置有机器人101的空间即作业区域201的坐标系表示为由在水平面上相互正交的X轴以及Y轴和以铅垂向上为正方向的Z轴规定的三维正交坐标系。另外,X轴的正方向与从机器人101朝向工件300的方向一致。对于X轴、Y轴以及Z轴,在图1之后的图中也是同样的。
操作器102操作机器人101。操作器102例如是操纵杆、键盘、数字键盘、示教器等。也可以在操作器102配置将由在机器人101的末端执行器20设置的力觉传感器检测出的力觉信息或者声音信息传递给操作者的设备。作为该设备,例如能够列举出振动马达、扬声器,使构成把持部的壳体伸缩的机构等。也可以在操作器102设有指示对工件300的上述作业的开始、停止的开关102B。操作器102也可以是能够由操作者携带的装置。
显示装置105显示工件300以及机器人101等的三维模型。这些三维模型从控制装置111输出。显示装置105例如可以是固定型的显示装置,也可以是操作者佩戴使用的头戴式显示器、眼镜。
图2是表示机器人101的概略结构的示意图。如图2所示,机器人101具备6个连杆(第1连杆11a、第2连杆11b、第3连杆11c、第4连杆11d、第5连杆11e以及第6连杆11f)的连接体、6个关节(第1关节JT1、第2关节JT2、第3关节JT3、第4关节JT4、第5关节JT5以及第6关节JT6)、以及支承它们的基台15。机器人101是垂直多关节型的机器人。另外,机器人101也可以是水平多关节型机器人来替代垂直多关节型机器人。
第1关节JT1将基台15和第1连杆11a的基端部连结为能够绕沿铅垂方向延伸的轴旋转。第2关节JT2将第1连杆11a的前端部和第2连杆11b的基端部连结为能够绕沿水平方向延伸的轴旋转。第3关节JT3将第2连杆11b的前端部和第3连杆11c的基端部连结为能够绕沿水平方向延伸的轴旋转。第4关节JT4将第3连杆11c的前端部和第4连杆11d的基端部连结为能够绕沿第4连杆11d的长度方向延伸的轴旋转。第5关节JT5将第4连杆11d的前端部和第5连杆11e的基端部连结为能够绕与第4连杆11d的长度方向正交的轴旋转。第6关节JT6将第5连杆11e的前端部和第6连杆11f的基端部连结为能够扭转旋转。在第6连杆11f的前端部设有机械接口。在机械接口可装卸地安装有与作业内容对应的末端执行器20。
末端执行器20对工件300的表面例如喷雾或者喷射涂料等液体。末端执行器20与用于向该末端执行器20供给液体的配管21连接。末端执行器20也可以构成为能够执行对工件300进行焊接、切削、清洗以及研磨的作业中的任一作业来替代对工件300进行液体的涂覆。
在第1关节JT1、第2关节JT2、第3关节JT3、第4关节JT4、第5关节JT5以及第6关节JT6分别设有驱动马达。驱动马达是使被各关节JT1、JT2、JT3、JT4、JT5以及JT6所连结的两个部件相对旋转的致动器。驱动马达例如也可以是由控制装置111伺服控制的伺服马达。此外,在第1关节JT1、第2关节JT2、第3关节JT3、第4关节JT4、第5关节JT5以及第6关节JT6分别设有检测驱动马达的旋转位置的旋转传感器和检测对驱动马达的旋转进行控制的电流的电流传感器。旋转传感器例如也可以是编码器。
控制装置111具备微处理器、CPU等运算处理器111a、以及ROM、RAM等存储器111b。在存储器111b中存储有基本程序、各种固定数据等信息。在存储器111b中也可以存储有表示预先设定好的第1范围的标尺的三维模型信息。标尺的三维模型信息例如也可以是用于测量距离机器人101的前端的距离的尺子、呈圆锥状地表示对工件300喷射颗粒、液体或者气体的范围的信息。
运算处理器111a通过读出并执行存储器111b中所存储的基本程序等软件,来执行机器人101的各种动作。运算处理器111a将存储器111b中所存储的工件300的三维模型和机器人101的前端部的三维模型向显示装置105输出。上述显示装置105将从运算处理器111a输入的工件300的三维模型显示为3D工件301,将机器人101的前端部的三维模型显示为3D机器人101A。
控制装置111使机器人101执行对工件300喷射颗粒、液体或者气体的喷射作业。在本实施方式中,喷射作业的“作业”是指,机器人101对工件300执行的一系列的动作,动作包括多个动作。作业例如包括机器人101接近工件300的动作、机器人101开始对工件300的液体喷射等的动作、机器人101停止液体的喷射等的动作、以及机器人101与工件300分离开的动作。另外,控制装置111可以是进行集中控制的单独的控制装置,也可以是相互配合进行分散控制的多个控制装置。此外,控制装置111可以由微型计算机构成,也可以由MPU、PLC(可编程逻辑控制器:Programmable Logic Controller)、逻辑电路等构成。
[机器人系统的动作以及作用效果]
图3是表示从窗204观察作业区域201的状态的示意图。如图3所示,操作者从窗204观察作业区域201时,有时工件300与机器人101看起来重叠。此外,有时难以把握机器人101的末端执行器20的前端部与工件300之间的位置关系。在这样的情况下,可以考虑在作业区域201内设置摄像机,拍摄机器人101的末端执行器20的前端部与工件300,将所拍摄到的影像出示给操作者。
但是,在机器人101对工件300进行涂装的情况下,需要在作业区域201设置防爆规格的摄像机。防爆规格的摄像机价格昂贵,因此可能会增加设备成本。此外,根据涂装的工件的大小、种类,需要改变摄像机的位置,因此可能会增加作业人员的负担。此外,在机器人101的末端执行器20的前端部与工件300未被摄像机的拍摄范围所包含的情况下,例如,由于喷射的涂料、焊接所产生的光、为了清洗或者磨削而喷射(喷出)的流体导致从摄像机看不到末端执行器20的前端部和工件300的情况下、需要改变摄像机的位置,因此可能会增加作业人员的负担。因此,机器人系统100执行以下的处理。
图4是表示本实施方式1的机器人系统100的动作的一个例子的流程图。图4所示的处理通过由控制装置111的运算处理器111a读出存储器111b中所存储的程序来执行。当操作者使用输入器等指示开始对工件300的作业的执行,表示该指示的指示信息输入控制装置111时,开始图4所示的处理。在本实施方式中,使用执行涂装作业作为作业的例子来进行说明。
运算处理器111a从存储器111b取得作为工件300的三维模型数据(三维模型信息)的第1数据(步骤S101)。另外,第1数据预先由程序员制作,并存储于存储器111b。
运算处理器111a从存储器111b取得作为工件300的作业区域201内的搬运位置的第1位置的位置信息(步骤S102)。第1位置是由后述搬运装置搬运工件300的位置,是成为机器人101用于对工件300执行喷射作业等的基准的位置。
运算处理器111a从存储器111b取得作为机器人101的三维模型数据(三维模型信息)的第2数据(步骤S103)。另外,第2数据与第1数据同样地,预先由程序员制作,并存储于存储器111b。
运算处理器111a使传送带等搬运装置将工件300搬运到作业区域201的第1位置(步骤S104)。另外,运算处理器111a可以在指示信息输入之前执行步骤S101到步骤S103的处理,也可以在执行了步骤S104之后执行步骤S101到步骤S103的处理。
运算处理器111a取得从操作器102输入的操作指令信息(步骤S105),基于在步骤S105取得的操作指令信息来使机器人101动作(步骤S106)。
运算处理器111a基于在步骤S101~步骤S103取得的第1数据、第1位置以及第2数据和在步骤S105取得的操作指令信息,将机器人101的末端执行器20的前端部与工件300之间的位置关系用三维模型表示,并显示于显示装置105(步骤S107)。另外,在以下的说明中,将机器人101的三维模型称为3D机器人101A,将工件300的三维模型称为3D工件301。
具体而言,运算处理器111a将从与操作者从操作区域202观察机器人101的方向不同的方向进行观察的情况下的3D工件301和3D机器人101A显示于显示装置105。“操作者从操作区域202观察机器人101的方向”是例如操作者从操作区域202的窗204观察机器人101的方向(在图1的示例中,是X轴的从负方向侧朝向正方向侧的方向)。另外,对于操作者从操作区域202观察机器人101的方向,也可以是:在操作区域202配置了人感传感器,该方向是连接由该人感传感器检测出的操作者的位置坐标与机器人101的位置坐标的直线方向。此外,对于“与操作者从操作区域202观察机器人101的方向不同的方向”,在本实施方式1中,只要是X轴的从负方向侧朝向正方向侧的方向以外的方向,则可以是其他的任意的方向,例如,也可以是与X方向正交的方向(Y方向或者Z方向)。因此,在步骤S107,运算处理器111a将从与X轴的从负方向侧朝向正方向侧的方向不同的方向观察机器人101的情况下的3D工件301和3D机器人101A显示于显示装置105。详细而言,如图1所示,运算处理器111a将从Y方向进行观察的情况下的机器人101的末端执行器20的前端部和工件300之间的位置关系显示于显示装置105。另外,如图1所示,运算处理器111a也可以使显示装置105将作为标尺的三维模型的3D标尺20A显示在3D机器人101A的前端。
运算处理器111a判定是否由操作者经由输入器等输入了表示结束对工件300的作业的指示信息(步骤S108)。
运算处理器111a在判定为没有输入表示结束作业的指示信息的情况下(步骤S108:否),反复执行步骤S105~步骤S108的处理,直到判定为输入了表示结束对工件300的作业的指示信息为止。另一方面,运算处理器111a在判定为输入了表示结束对工件300的作业的指示信息的情况下(步骤S108:是),结束本程序。
另外,运算处理器111a也可以将表示通过操作者操作操作器102而使机器人101执行的作业的信息即操作器102的操作信息存储于存储器111b。并且,运算处理器111a也可以按照存储器111b中存储的操作信息来使机器人101动作。
在以上所说明的本实施方式1的机器人系统100中,控制装置111将从与操作者从操作区域202的窗204观察机器人101的方向(这里,为X轴的从负方向侧朝向正方向侧的方向)不同的方向进行观察的情况下的机器人101的末端执行器20的前端部与工件300之间的位置关系通过三维模型显示于显示装置105。因此,不在作业区域201配置价格昂贵的防爆规格的摄像机,也能够由操作者远程操作机器人101,因此能够降低设备成本。此外,操作者不需要随着工件300的种类、大小的改变而改变摄像机的位置,因此能够减轻操作者的负担。因此,能够提高操作者的作业效率。
此外,在本实施方式1的机器人系统100中,控制装置111将工件300与机器人101的前端部的位置关系分别以3D工件301和3D机器人101A显示于显示装置105,能够减轻操作者的负担并提高作业效率。
进而,在本实施方式1的机器人系统100中,控制装置111使显示装置105将3D标尺20A显示在机器人101的末端执行器20(3D机器人101A)的前端,因此能够减轻操作者的负担并提高作业效率。
另外,在上述机器人系统100中,控制装置111将机器人101的前端部的三维模型以3D机器人101A显示于显示装置105,但本公开并不局限于此。例如,控制装置111也可以不仅显示机器人101的前端部,例如还将机器人101的后端部、以及机器人101整体等其他部分的三维模型显示为3D机器人101A。
[变形例1]
图5及图6是表示本实施方式1的变形例1的机器人系统的概略结构的示意图。如图5及图6所示,本变形例1的机器人系统100与上述实施方式1的机器人系统100的不同之处在于,基于工件300的三维模型信息,使显示装置105显示表示与该工件300的预先设定好的第1部分相对应的法线方向的线30,以及追加具备报告器150。
上述“第1部分”是指与机器人101的末端执行器20的前端对置的部分。报告器150对操作者通知使其注意的信息。在本变形例1中,报告器150通知线30与3D机器人101A的末端执行器20的轴心方向一致的情况。作为通知的方法,可以将文字数据或者图像数据等显示于显示装置105,也可以使扬声器等输出声音,还可以使灯发光,也可以根据通知内容使发出的光的颜色不同。此外,也可以通过邮件或应用程序通知智能手机、移动电话、或者平板电脑等利用无线、有线与控制装置111连接的其他终端设备。
如图6所示,线30与3D机器人101A的末端执行器20的轴心方向一致的情况下,控制装置111改变线30的线粗细地使显示装置105进行显示。另外,控制装置111也可以替代线30的线粗细,而改变线30的线颜色地进行显示,还可以使线30的线粗细和线颜色都改变地进行显示。
以上所说明的本变形例1的机器人系统100也起到与上述实施方式1的机器人系统100相同的作用效果。
(实施方式2)
[机器人系统的结构]
图7是表示本实施方式2的机器人系统的概略结构的示意图。如图7所示,本实施方式2的机器人系统100与实施方式1的机器人系统100的不同之处在于,追加具备从操作区域202向作业区域201搬运工件300的搬运装置106,以及追加具备限制搬运装置106上的工件300的移动的闸门107。搬运装置106能够使用传送带等公知的搬运装置。闸门107安装于壁部件203,允许或者禁止工件300从操作区域202向作业区域201的移动。另外,也可以省略闸门107。
以上所说明的本实施方式2的机器人系统100也起到与上述实施方式1的机器人系统100相同的作用效果。
(实施方式3)
[机器人系统的结构]
图8是表示本实施方式3的机器人系统的概略结构的示意图。如图8所示,本实施方式3的机器人系统100与实施方式1的机器人系统100的不同之处在于,在操作区域202配置有传感器104,以及操作器102具备把持部102A和主体部102E。
传感器104通过无线检测操作器102的前端部的位置信息以及姿势信息,并向控制装置111输出。位置信息以及姿势信息向控制装置111的输出通过利用无线或者有线实现的通信来执行。传感器104例如是红外线传感器。另外,传感器104也可以是摄像机,来替代红外线传感器。在该情况下,传感器104也可以不配置在操作区域202内,例如,也可以是在操作者携带的携带终端或者头戴式显示器等设置的摄像机。
操作器102具备把持部102A和主体部102E。操作者通过把持把持部102A并操作主体部102E,来操作机器人101。具体而言,使机器人101追随主体部102E的前端部的轨迹而动作,从而操作者能够在操作区域202内使用操作器102直观地操作机器人101。
在把持部102A也可以配置将由在机器人101的末端执行器20设置的力觉传感器检测出的力觉信息或者声音信息传递给操作者的设备。作为该设备,例如能够列举出振动马达、扬声器、使构成把持部的壳体伸缩的机构等。另外,操作器102的主体部102E也可以形成为与机器人101的末端执行器20相同的形状。
控制装置111基于从传感器104输入的操作器102的位置信息以及姿势信息来计算操作器102的轨迹,追随操作器102的前端部的动作,实时地使机器人101的末端执行器20动作。
[机器人系统的动作以及作用效果]
图9是表示本实施方式3的机器人系统的动作的一个例子的流程图。如图9所示,本实施方式3的机器人系统100的动作与实施方式1的机器人系统100的动作的不同之处在于,执行步骤S105A以及步骤S105B来替代步骤S105。
具体而言,运算处理器111a从传感器104取得由该传感器104检测出的操作器102的位置信息以及姿势信息(步骤S105A)。运算处理器111a基于在步骤S105A取得的位置信息以及姿势信息,来计算操作器102的轨迹(步骤S105B)。另外,计算出的轨迹相当于操作指令信息。
运算处理器111a基于在步骤S105B计算出的操作器102的轨迹,实时地使机器人101动作(步骤S106)。在执行了步骤S106之后,执行上述S107,将机器人101的末端执行器20的前端部和工件300之间的位置关系通过三维模型显示于显示装置105。
以上所说明的本实施方式3的机器人系统100也起到与上述实施方式1的机器人系统100相同的作用效果。
另外,运算处理器111a也可以将表示使机器人101基于随着操作者操作操作器102而产生的操作器102的轨迹来执行的作业的信息即操作器102的轨迹信息存储于存储器111b。并且,运算处理器111a也可以按照存储器111b中存储的轨迹信息来使机器人101动作。
[变形例1]
图10是表示本实施方式3的变形例1的机器人系统的概略结构的示意图。如图10所示,本变形例1的机器人系统100与实施方式3的机器人系统100的不同之处在于,具备利用无线检测操作器102的位置信息和姿势信息的检测器12、以及具备将由检测器12检测出的位置信息和姿势信息向控制装置111发送的发送器13。另外,在本变形例1中,检测器12和发送器13相当于传感器104。
检测器12设于操作器102。检测器12例如是陀螺仪传感器。另外,检测器12也可以是摄像机来替代陀螺仪传感器。此外,例如,检测器12也可以不对位置信息和姿势信息这两者都进行检测,也可以仅检测位置信息,还可以仅检测姿势信息。
以上所说明的本变形例1的机器人系统100也起到与上述实施方式3的机器人系统100相同的作用效果。
(实施方式4)
[机器人系统的结构]
图11是表示本实施方式4的机器人系统的概略结构的示意图。如图11所示,本实施方式4的机器人系统100与实施方式1的机器人系统100的不同之处在于,在操作区域202配置有报告器150。报告器150与实施方式1的变形例1的报告器150相同,因此省略详细的说明。
[机器人系统的动作以及作用效果]
图12A及图12B是表示本实施方式4的机器人系统的动作的一个例子的流程图。如图12A及图12B所示,本实施方式4的机器人系统100的动作与实施方式1的机器人系统100的动作的不同之处在于,在步骤S107与步骤S108之间执行步骤S107A、S107B以及步骤S107C的处理。
具体而言,若执行上述步骤S107,基于第1数据、第2数据以及操作指令信息将机器人101的末端执行器20的前端部和工件300之间的位置关系通过三维模型显示于显示装置105,则运算处理器111a基于第1数据、第2数据以及操作指令信息来计算机器人101与工件300的距离A(步骤S107A)。此时,运算处理器111a也可以计算机器人101与工件300的最短距离来作为距离A。最短距离例如也可以是机器人101的与工件300最近的部分和工件300之间的距离。即,在机器人101的末端执行器20的前端位于与工件300最近的位置的情况下,运算处理器111a计算末端执行器20的前端与工件300的距离即可。此外,在机器人101的某部分位于与工件300最近的位置的情况下,运算处理器111a计算该部分与工件300的距离即可。另外,距离A基于第1数据、第2数据以及操作指令信息来计算,因此也能够使用3D数据,在该情况下,也可以计算3D机器人101A与3D工件301的距离。
运算处理器111a判定在步骤S107A计算出的距离A是否为预先设定好的第1距离以下(步骤S107B)。在本实施方式中,第1距离设定为与机器人101的动作速度以及对工件300的作业内容等对应的值。例如,从抑制机器人101与工件300的碰撞的观点出发,优选第1距离为0.5cm以上。此外,例如,在机器人101的动作速度较小的情况下,与机器人101的动作速度较大的情况相比,第1距离也可以设定得较小。此外,例如,从对工件300执行作业的观点出发,第1距离也可以是30cm。此外,例如,在对工件300进行的作业内容是焊接、切削、清洗以及研磨作业的情况下,与对工件300进行的作业内容是液体等的喷射/喷雾作业的情况相比,第1距离设定得较小。
运算处理器111a在判定为距离A是第1距离以下的情况下(步骤S107B:是),使报告器150通知表示机器人101与工件300有可能会发生碰撞的警告(步骤S107C)。此时,运算处理器111a也可以减小机器人101的动作速度,也可以使机器人101停止。因此,能够使操作者知道机器人101与工件300有可能会发生碰撞的情况,所以操作者能够使用操作器102以避免工件300与机器人101的碰撞的方式操作机器人101。在执行了步骤S107C之后,执行上述步骤S105。
另一方面,运算处理器111a在判定为距离A并非第1距离以下的情况下(步骤S107B:否),执行上述步骤S108。
以上所说明的本实施方式4的机器人系统100也起到与上述实施方式1的机器人系统100相同的作用效果。
根据上述说明,对于本领域技术人员而言,本公开的多种改进或其他实施方式是显而易见的。因此,上述说明应仅解释为示例,是以向本领域技术人员教导执行本公开的最佳方式为目的而提供的。在不脱离本公开的情况下,能够实质上改变其构造和/或功能的详细内容。
附图标记说明
11a...第1连杆;11b...第2连杆;11c...第3连杆;11d...第4连杆;11e...第5连杆;11f...第6连杆;12...检测器;13...发送器;15...基台;20...末端执行器;21...配管;30...线;100...机器人系统;101...机器人;101A...3D机器人;102...操作器;102A...把持部;102B...开关;102E...主体部;104...传感器;105...显示装置;106...搬运装置;107...闸门;110...控制装置;150...报告器;201...作业区域;202...操作区域;203...壁部件;204...窗;300...工件;301...3D工件;JT1...第1关节;JT2...第2关节;JT3...第3关节;JT4...第4关节;JT5...第5关节;JT6...第6关节。
Claims (9)
1.一种机器人系统,其中,
该机器人系统具备:
机器人,其设置在作业区域内,对工件进行作业;
操作器,其设置在与所述作业区域不同的空间即操作区域内,操作所述机器人的动作;
显示装置,其配置在所述操作区域内,至少显示所述工件以及所述机器人的三维模型;以及
控制装置,所述控制装置能够基于从所述操作器输入的所述机器人的操作指令信息,控制所述机器人的动作来对所述工件执行规定的作业,在执行所述规定的作业时,基于所述工件的三维模型信息、所述机器人的三维模型信息以及所述操作指令信息,将从与操作者从所述操作区域观察所述机器人的方向不同的方向对所述工件及所述机器人进行观察的情况下的所述工件和所述机器人之间的位置关系以及所述机器人的动作显示于所述显示装置,
所述机器人的动作通过所述机器人的三维模型在所述显示装置的画面上变化来表示。
2.根据权利要求1所述的机器人系统,其中,
所述不同的方向是与所述操作者从所述操作区域观察所述机器人的方向正交的方向。
3.根据权利要求1或2所述的机器人系统,其中,
该机器人系统还具备搬运装置,该搬运装置将所述工件向所述作业区域的预先设定好的第1位置搬运。
4.根据权利要求1或2所述的机器人系统,其中,
该机器人系统还具备传感器,所述传感器配置在所述操作区域,以无线的方式检测所述操作器的位置信息以及姿势信息,
所述控制装置构成为,
基于由所述传感器检测出的所述位置信息以及所述姿势信息来计算所述操作器的轨迹,
使所述机器人基于计算出的所述轨迹实时地动作,由此使所述机器人执行所述作业。
5.根据权利要求1或2所述的机器人系统,其中,
所述控制装置还具备存储器,所述存储器存储有表示预先设定好的第1范围的标尺的三维模型信息,
在显示于所述显示装置的所述机器人的末端执行器的前端显示所述标尺的三维模型。
6.根据权利要求1或2所述的机器人系统,其中,
所述控制装置基于所述工件的三维模型信息,将表示与该工件中的预先设定好的第1部分相对应的法线方向的线显示于所述显示装置,
在所述线与所述机器人的末端执行器的轴心方向一致的情况下,所述控制装置变更所述线的颜色和所述线的粗细中的至少一者而在所述显示装置显示所述线。
7.根据权利要求6所述的机器人系统,其中,
该机器人系统还具备报告器,
在所述线与所述机器人的末端执行器的轴心方向一致的情况下,所述控制装置使所述报告器工作。
8.根据权利要求6所述的机器人系统,其中,
所述第1部分是与所述末端执行器的前端对置的部分。
9.根据权利要求1或2所述的机器人系统,其中,
该机器人系统还具备报告器,
在所述机器人与所述工件的距离为预先设定好的第1距离以下的情况下,所述控制装置使所述报告器工作。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225563 | 2019-12-13 | ||
JP2019-225563 | 2019-12-13 | ||
PCT/JP2020/046295 WO2021117871A1 (ja) | 2019-12-13 | 2020-12-11 | ロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114761180A CN114761180A (zh) | 2022-07-15 |
CN114761180B true CN114761180B (zh) | 2024-06-11 |
Family
ID=76330014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080084991.XA Active CN114761180B (zh) | 2019-12-13 | 2020-12-11 | 机器人系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US12090630B2 (zh) |
EP (1) | EP4074463A4 (zh) |
JP (2) | JP6990340B2 (zh) |
CN (1) | CN114761180B (zh) |
WO (1) | WO2021117871A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4432652A1 (en) | 2021-11-12 | 2024-09-18 | Sony Group Corporation | Information processing device, movable object, and information processing method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01153288A (ja) * | 1987-12-10 | 1989-06-15 | Mitsubishi Electric Corp | 遠隔操作式マニピュレータ操作装置 |
JPH0639753A (ja) * | 1991-09-18 | 1994-02-15 | Fujitsu Ltd | ロボットの遠隔操作支援装置 |
JPH10264065A (ja) * | 1997-03-27 | 1998-10-06 | Mitsubishi Electric Corp | ロボットの遠隔操作支援装置 |
CN103930062A (zh) * | 2011-11-08 | 2014-07-16 | 奥林巴斯株式会社 | 医疗处置工具和包括该医疗处置工具的操纵器 |
CN106725860A (zh) * | 2009-11-13 | 2017-05-31 | 直观外科手术操作公司 | 用于微创外科手术系统中的手势控制的设备 |
CN107921638A (zh) * | 2015-08-25 | 2018-04-17 | 川崎重工业株式会社 | 机械臂系统 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06143161A (ja) * | 1992-10-29 | 1994-05-24 | Kobe Steel Ltd | マニピュレータの制御方法及びその装置 |
JPH0749711A (ja) * | 1993-08-05 | 1995-02-21 | Brother Ind Ltd | ロボットの安全装置 |
JPH07213966A (ja) * | 1994-02-03 | 1995-08-15 | Mitsubishi Heavy Ind Ltd | 塗装ブース |
JP3924495B2 (ja) | 2002-04-24 | 2007-06-06 | 株式会社日立製作所 | 遠隔操作制御装置 |
JP2007320009A (ja) * | 2006-06-05 | 2007-12-13 | Toshiba Mach Co Ltd | ロボットにおける回転体干渉回避制御方法及び回転体干渉回避制御装置並びにこれを有する塗装装置 |
JP4238256B2 (ja) * | 2006-06-06 | 2009-03-18 | ファナック株式会社 | ロボットシミュレーション装置 |
US10442025B2 (en) | 2014-10-22 | 2019-10-15 | Illinois Tool Works Inc. | Virtual reality controlled mobile robot |
WO2017204826A1 (en) | 2016-05-27 | 2017-11-30 | Abb Schweiz Ag | User interface for a teleoperated robot |
CN109983510A (zh) * | 2016-11-24 | 2019-07-05 | 国立大学法人京都大学 | 机器人控制系统、机械控制系统、机器人控制方法、机械控制方法和记录介质 |
JP6981787B2 (ja) * | 2017-06-16 | 2021-12-17 | タクボエンジニアリング株式会社 | 塗装ロボットにおける軌道データのシミュレーション方法 |
JP6974044B2 (ja) * | 2017-06-16 | 2021-12-01 | タクボエンジニアリング株式会社 | 塗装ロボットにおける軌道データのシミュレーション方法 |
JP7169130B2 (ja) * | 2018-09-03 | 2022-11-10 | 川崎重工業株式会社 | ロボットシステム |
-
2020
- 2020-12-11 EP EP20898428.6A patent/EP4074463A4/en active Pending
- 2020-12-11 WO PCT/JP2020/046295 patent/WO2021117871A1/ja unknown
- 2020-12-11 US US17/783,650 patent/US12090630B2/en active Active
- 2020-12-11 JP JP2021506356A patent/JP6990340B2/ja active Active
- 2020-12-11 CN CN202080084991.XA patent/CN114761180B/zh active Active
-
2021
- 2021-09-03 JP JP2021143773A patent/JP2021185014A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01153288A (ja) * | 1987-12-10 | 1989-06-15 | Mitsubishi Electric Corp | 遠隔操作式マニピュレータ操作装置 |
JPH0639753A (ja) * | 1991-09-18 | 1994-02-15 | Fujitsu Ltd | ロボットの遠隔操作支援装置 |
JPH10264065A (ja) * | 1997-03-27 | 1998-10-06 | Mitsubishi Electric Corp | ロボットの遠隔操作支援装置 |
CN106725860A (zh) * | 2009-11-13 | 2017-05-31 | 直观外科手术操作公司 | 用于微创外科手术系统中的手势控制的设备 |
CN103930062A (zh) * | 2011-11-08 | 2014-07-16 | 奥林巴斯株式会社 | 医疗处置工具和包括该医疗处置工具的操纵器 |
CN107921638A (zh) * | 2015-08-25 | 2018-04-17 | 川崎重工业株式会社 | 机械臂系统 |
Also Published As
Publication number | Publication date |
---|---|
EP4074463A4 (en) | 2024-01-31 |
JP2021185014A (ja) | 2021-12-09 |
JP6990340B2 (ja) | 2022-01-12 |
WO2021117871A1 (ja) | 2021-06-17 |
US12090630B2 (en) | 2024-09-17 |
JPWO2021117871A1 (ja) | 2021-12-09 |
US20230010975A1 (en) | 2023-01-12 |
CN114761180A (zh) | 2022-07-15 |
EP4074463A1 (en) | 2022-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111093903B (zh) | 机器人系统及其运行方法 | |
CN107921620B (zh) | 远程操作机器人系统 | |
JP2018126839A (ja) | ロボットシステム及びその制御方法 | |
CN110505947B (zh) | 机器人系统及其运行方法 | |
CN111093911B (zh) | 机器人系统及其运行方法 | |
CN114502337B (zh) | 机器人系统以及工件的三维模型的形成方法 | |
CN114761180B (zh) | 机器人系统 | |
CN112041128B (zh) | 机器人的教导方法和机器人的教导系统 | |
JP2023166547A (ja) | ロボットシステム | |
KR102681939B1 (ko) | 로봇시스템 | |
JP7518203B2 (ja) | 複数の移動機械を移動させて所定の作業を行う制御装置、機械システム、方法、及びコンピュータプログラム | |
JP2022049897A (ja) | ロボットの制御方法およびロボットシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |