CN111278613B - 校准装置、校准方法和控制装置 - Google Patents
校准装置、校准方法和控制装置 Download PDFInfo
- Publication number
- CN111278613B CN111278613B CN201780096277.0A CN201780096277A CN111278613B CN 111278613 B CN111278613 B CN 111278613B CN 201780096277 A CN201780096277 A CN 201780096277A CN 111278613 B CN111278613 B CN 111278613B
- Authority
- CN
- China
- Prior art keywords
- force
- unit
- information
- position information
- force information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1648—Programme controls characterised by the control loop non-linear control combined or not with linear control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D5/00—Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4155—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39024—Calibration of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Theoretical Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Nonlinear Science (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Manipulator (AREA)
Abstract
具有:位置信息取得部(101),其取得表示控制对象设备的位置和姿态的位置信息;力信息取得部(102),其根据设置于控制对象设备的力觉传感器(5)的检测结果,取得施加给控制对象设备的力信息;第1估计部(104),其根据取得的位置信息,使用物理模型估计施加给控制对象设备的力,取得估计力信息;以及第2估计部(105),其根据取得的位置信息、取得的力信息和取得的估计力信息,估计线性或非线性模型。
Description
技术领域
本发明涉及在利用力控制的装置中求出该装置的接触力的技术。
背景技术
以往使用如下的机器人:在进行三维动作的臂型机器人的臂的前端经由力觉传感器安装末端执行器,该末端执行器对工件进行各种作业。为了使该机器人进行各种作业,需要对作用于末端执行器与工件之间的接触力进行控制。但是,力觉传感器检测的力除了作用于末端执行器与工件之间的接触力以外,还包含施加给力觉传感器、末端执行器和末端执行器把持的工件等的重力。为了求出作用于末端执行器与工件之间的接触力,需要从力觉传感器检测到的结果中抵消施加给力觉传感器、末端执行器和末端执行器把持的工件等的重力成分。
例如,在专利文献1中公开有如下的校准装置:使机器人臂以多个姿态进行动作,取得力觉传感器的计测值和取得该计测值时的力觉传感器的姿态数据,通过运算装置计算包含末端执行器的重量、重力方向向量、末端执行器重心位置向量在内的多个参数,同时对计算出的参数进行校准。
现有技术文献
专利文献
专利文献1:日本特开2012-040634号公报
发明内容
发明要解决的课题
在上述专利文献1记载的校准装置中,利用质点模型对施加给力觉传感器、末端执行器和末端执行器把持的工件等的重力成分进行模型化,估计重力成分。但是,末端执行器等具有质量分布,在通过质点模型估计重力成分时产生误差。此外,关于卷绕于机器人臂的缆线等重力成分根据机器人臂的姿态而变化的部件,很难准确地估计重力成分。这样,在专利文献1记载的技术中,存在很难通过质点模型准确地估计重力成分这样的课题。
本发明正是为了解决上述课题而完成的,其目的在于,抑制重力成分的估计误差,得到准确的校准结果。
用于解决课题的手段
本发明的校准装置具有:位置信息取得部,其取得表示位置和姿态中的至少任意一方变化的控制对象设备的位置和姿态的位置信息,该控制对象设备构成进行力控制的装置;力信息取得部,其根据设置于控制对象设备的力觉传感器的检测结果,取得施加给控制对象设备的力信息;第1估计部,其根据位置信息取得部取得的位置信息,使用物理模型估计施加给控制对象设备的力,取得估计力信息;以及第2估计部,其根据位置信息取得部取得的位置信息、力信息取得部取得的力信息和在控制对象设备未与其它物体接触的情况下第1估计部取得的估计力信息,使用线性或非线性模型估计估计力信息与力信息的差分,第2估计部将位置信息取得部取得的位置信息作为神经网络的输入,将第1估计部取得的估计力信息与力信息取得部取得的力信息的差分作为神经网络的教师信号,进行该神经网络的学习。
发明效果
根据本发明,能够抑制重力成分的估计误差。由此,能够得到准确的校准结果,能够针对进行精密操作的装置应用该校准方法。
附图说明
[图1]是示出应用了实施方式1的校准装置的机器人系统的结构的图。
[图2]是示出实施方式1的机器人系统的机器人坐标系、世界坐标系、重力坐标系和传感器坐标系的位置关系的图。
[图3]是示出实施方式1的校准装置的结构的框图。
[图4]是示出实施方式1的校准装置的第2估计部中的神经网络和神经网络的学习规则的例子的图。
[图5]图5A和图5B是示出校准装置的硬件结构例的图。
[图6]是示出实施方式1的校准装置的校准处理时的动作的流程图。
[图7]是示出实施方式1的校准装置的校准处理时的数据流的图。
[图8]是示出机器人进行通常运转时的实施方式1的校准装置的动作的流程图。
[图9]是示出机器人进行通常运转时的实施方式1的校准装置的数据流的图。
[图10]图10A~图10F是示出实施方式1的校准装置的校准结果的图。
[图11]是示出欧拉表达的位置信息的定义域的图。
[图12]是示出实施方式2的校准装置的结构的框图。
[图13]是示出实施方式2的校准装置的第2估计部中的神经网络和神经网络的学习规则的例子的图。
[图14]是示出实施方式2的校准装置的校准处理时的动作的流程图。
[图15]是示出机器人进行通常运转时的实施方式2的校准装置的动作的流程图。
[图16]图16A~图16F是示出实施方式2的校准装置的校准结果的图。
具体实施方式
下面,为了更加详细地说明本发明,按照附图对用于实施本发明的方式进行说明。
另外,在以下的各实施方式中,作为校准装置,具体地举例说明在使用机器人的系统中进行校准处理的机器人系统。但是,本发明的校准装置不限于使用机器人的情况,关于进行力控制的装置,能够利用相同结构实施校准。即,本发明的校准装置的应用范围不限于机器人系统。作为进行力控制的装置,例如可举出自动加工装置和自动组装装置。
实施方式1
图1是示出应用了实施方式1的校准装置100的机器人系统的结构的图。
作为基本结构,机器人系统具备具有机器人臂(控制对象设备)1的机器人(控制对象设备)2、安装于机器人臂1的前端部的末端执行器(控制对象设备)3、以及对机器人2和末端执行器3进行控制的控制装置4。此外,在进行力控制的机器人系统中,在机器人臂1与末端执行器3之间设置有力觉传感器5,作为取得力信息的传感器。
机器人2在任意的坐标系上使机器人臂1的前端位置或安装于机器人臂1的前端的末端执行器3的前端位置移动,进行位置控制。控制装置4将用于进行末端执行器3的前端位置的位置控制的控制信息输出到机器人2。
此外,通过使用力觉传感器5,不仅能够进行末端执行器3的前端位置的位置控制,还能够进行末端执行器3的力控制。末端执行器3的力控制是指对末端执行器3与周边物体或末端执行器3与周边环境之间的力的作用状态即接触力进行控制。通过进行末端执行器3的力控制,能够实施考虑末端执行器3与工件的接触状态进行的作业,如使用机器人2的研磨作业、去毛刺作业和连接器等的组装等。
在机器人系统中,如图1所示,根据目的,在机器人臂1的前端安装有缆线6。缆线6例如是从力觉传感器5延伸的缆线、电源供给用的缆线以及用于从控制装置4供给控制信号的缆线等。多数情况下,缆线6的目的在于防止机器人2的运动引起的卷入,缓和张力而松弛地卷绕,重力成分根据机器人臂1的姿态而变化。在力觉传感器5的力信息中增加该缆线6的重力成分,成为误差的要因。在机器人臂1进行高精度的作业时,该误差成为问题。
因此,校准装置100进行如下的校准:利用使用质点模型估计出的施加给机器人2的力与力觉传感器5的力信息的差分,进行神经网络的参数优化。
用于估计施加给机器人2的力的模型也可以是质点模型以外的物理模型。作为质点模型以外的物理模型,例如可举出刚体模型。
首先,说明校准装置100进行校准处理的坐标系。
图2是示出实施方式1的机器人系统的机器人坐标系、世界坐标系、重力坐标系和传感器坐标系的位置关系的图。
在图2中,将作为固定于机器人系统内的机器人2的基准坐标系定义的机器人坐标系表示为Σrob,将作为机器人系统内的设备共同的坐标系定义的世界坐标系表示为Σwld,将以重力加速度方向为-Z方向的重力坐标系表示为Σgrv,并且将作为力觉传感器5的基准坐标系定义的传感器坐标系表示为Σsen。
校准装置100可以应用图2所示的任意坐标系进行处理。另外,在以下的说明中,以校准装置100使用传感器坐标系进行处理的情况为例进行说明。
图3是示出实施方式1的校准装置100的结构的框图。
校准装置100具有位置信息取得部101、力信息取得部102、信息存储部103、第1估计部104、第2估计部105和控制量运算部106。此外,如图3所示,在校准装置100连接有控制装置4和力觉传感器5。此外,机器人2与控制装置4和力觉传感器5连接。
首先,在使用校准装置100时,首先,位置信息取得部101、力信息取得部102、信息存储部103、第1估计部104和第2估计部105进行神经网络的中间层的参数的优化处理(以下记作校准处理)。
位置信息取得部101从控制装置4取得机器人2的位置信息,将其存储在信息存储部103中。位置信息取得部101取得表示末端执行器3部分的位置和姿态的信息作为机器人2的位置信息。位置信息例如表示针对欧拉表达的X轴、Y轴、Z轴的旋转三自由度即[A、B、C]。力信息取得部102根据力觉传感器5的检测结果取得表示施加给机器人2的力的信息(以下记作力信息),将其存储在信息存储部103中。
在进行校准处理时,控制装置4设定通过机器人坐标系、世界坐标系、重力坐标系或传感器坐标系中的任意坐标系的原点的任意旋转轴,进行使机器人2的姿态绕设定的旋转轴变化的控制。使机器人2绕设定的旋转轴旋转时的旋转角度量任意设定。控制装置4根据设定的旋转轴和旋转角度量决定用于取得位置信息和力信息的机器人2的姿态,作为姿态指令值输出到机器人2。机器人2按照从控制装置4输入的姿态指令值,绕设定的旋转轴旋转设定的旋转角度量,使姿态变化。位置信息取得部101和力信息取得部102离散地取得姿态变化的机器人2的位置信息和力信息,将其存储在信息存储部103中。位置信息取得部101和力信息取得部102取得位置信息和力信息的时机能够适当设定。信息存储部103存储从位置信息取得部101输入的位置信息和从力信息取得部102输入的力信息。
第1估计部104根据信息存储部103中存储的位置信息,使用质点模型估计施加给机器人2的力,取得估计力信息。质点模型的参数是1个质点中的末端执行器3的重量、末端执行器3的重心位置和偏置。第1估计部104将取得的估计力信息输出到第2估计部105。
第2估计部105将信息存储部103中存储的位置信息和力信息、以及第1估计部104取得的估计力信息作为输入,使用线性或非线性模型估计估计力信息与力信息的差分。具体而言,第2估计部105使用由位置信息和估计力信息与力信息的差分构成的多个组,根据一般的神经网络的学习规则进行学习。神经网络存在CNN(Convolutional NeuralNetwork:卷积神经网络)或RNN(Recurrent Neural Network:递归神经网络)等各种形式,但是,该形式能够任意应用。
图4是示出实施方式1的校准装置100的第2估计部105中的神经网络和神经网络的学习规则的例子的图。
对输入层输入信息存储部103中存储的位置信息[A、B、C],从输出层输出估计力信息与力信息的差分(ΔFX、ΔFY、ΔFZ、ΔMA、ΔMB、ΔMC)。
第2估计部105在神经网络的学习过程中,进行中间层的参数优化,使得从输入的位置信息经由中间层得到的输出层的输出值近似于教师信号即估计力信息与力信息的差分。
另外,在图4中,以力觉传感器5是6轴传感器而能够检测机器人臂1的移动方向、朝向和旋转的情况为例进行了说明。另一方面,力觉传感器5也可以是3轴传感器,传感器的结构能够适当设定。神经网络的输出根据力觉传感器5的结构而适当设定。
接着,在实际使用机器人2实施作业时(以下记作通常动作时),校准装置100进行位置信息取得部101、力信息取得部102、信息存储部103、第1估计部104、第2估计部105和控制量运算部106运算针对控制装置4的指令值的处理。
位置信息取得部101取得通常动作时的机器人2的位置信息和力信息,将其存储在信息存储部103中。第1估计部104根据信息存储部103中存储的位置信息估计施加给机器人2的力,取得估计力信息。第1估计部104将取得的估计力信息输出到控制量运算部106。
第2估计部105将信息存储部103中存储的位置信息输入到神经网络,估计估计力信息与力信息的差分。第2估计部105将估计出的差分输出到控制量运算部106。控制量运算部106在从第1估计部104输入的估计力信息与信息存储部103中存储的力信息的差分中减去从第2估计部105输入的差分,运算针对控制装置4的控制量。控制量运算部106将运算出的控制量输出到控制装置4。控制装置4的控制部4a使用从控制量运算部106输入的控制量对机器人2进行控制。另外,在上述图3中,示出了校准装置100具有控制量运算部106的结构,但是,也可以构成为控制装置4具有该控制量运算部106。
接着,对校准装置100的硬件结构例进行说明。
图5A和图5B是示出校准装置100的硬件结构例的图。
校准装置100中的信息存储部103通过存储器100a实现。此外,校准装置100中的位置信息取得部101、力信息取得部102、第1估计部104、第2估计部105和控制量运算部106的各功能通过处理电路实现。即,校准装置100具有用于实现上述各功能的处理电路。该处理电路可以如图5A所示是作为专用硬件的处理电路100b,也可以如图5B所示是执行内存100d中存储的程序的处理器100c。
如图5A所示,在位置信息取得部101、力信息取得部102、第1估计部104、第2估计部105和控制量运算部106是专用硬件的情况下,处理电路100b例如是单一电路、复合电路、程序化的处理器、并行程序化的处理器、ASIC(Application Specific Integrated Circuit:面向特定用途的集成电路)、FPGA(Field-programmable Gate Array:现场可编程门阵列)或它们的组合。可以利用处理电路分别实现位置信息取得部101、力信息取得部102、第1估计部104、第2估计部105和控制量运算部106的各部的功能,也可以利用一个处理电路统一实现各部的功能。
如图5B所示,在位置信息取得部101、力信息取得部102、第1估计部104、第2估计部105和控制量运算部106是处理器100c的情况下,各部的功能通过软件、固件或软件与固件的组合实现。软件或固件被记述为程序,存储在内存100d中。处理器100c通过读出并执行内存100d中存储的程序,实现位置信息取得部101、力信息取得部102、第1估计部104、第2估计部105和控制量运算部106的各功能。即,位置信息取得部101、力信息取得部102、第1估计部104、第2估计部105和控制量运算部106具有内存100d,该内存100d用于存储在由处理器100c执行时结果是执行后述图6和图8所示的各步骤的程序。此外,也可以说,这些程序使计算机执行位置信息取得部101、力信息取得部102、第1估计部104、第2估计部105和控制量运算部106的步骤或方法。
这里,处理器100c例如是CPU(Central Processing Unit:中央处理单元)、处理装置、运算装置、处理器、微处理器、微计算机或DSP(Digital Signal Processor:数字信号处理器)等。
内存100d例如可以是RAM(Random Access Memory:随机存取存储器)、ROM(ReadOnly Memory:只读存储器)、闪存、EPROM(Erasable Programmable ROM:可擦除可编程只读存储器)、EEPROM(Electrically EPROM:电可擦除可编程只读存储器)等非易失性或易失性半导体内存,也可以是硬盘、软盘等磁盘,还可以是迷你盘、CD(Compact Disc:紧凑盘)、DVD(Digital Versatile Disc:数字多功能盘)等光盘。
另外,关于位置信息取得部101、力信息取得部102、第1估计部104、第2估计部105和控制量运算部106的各功能,也可以利用专用硬件实现一部分,利用软件或固件实现一部分。这样,校准装置100中的处理电路能够通过硬件、软件、固件或它们的组合实现上述各功能。
接着,对校准装置100的动作进行说明。
校准装置100的动作分成校准处理时的动作和通常运转时的动作来进行说明。首先,参照图6和图7对校准装置100的校准处理时的动作进行说明。
图6是示出实施方式1的校准装置100的校准处理时的动作的流程图。
图7是示出实施方式1的校准装置100的校准处理时的数据流的图。
位置信息取得部101和力信息取得部102取得位置信息[A、B、C]T和力信息FX、FY、FZ、MA、MB、MC(步骤ST1),将取得的位置信息和力信息存储在信息存储部103中(步骤ST2)。根据机器人2的姿态的变化而反复进行步骤ST1和步骤ST2的处理。第1估计部104根据信息存储部103中存储的位置信息[A、B、C]T估计施加给机器人2的力,取得估计力信息(步骤ST3)。第1估计部104将取得的估计力信息输出到第2估计部105。
第2估计部105计算在步骤ST3中取得的估计力信息与信息存储部103中存储的力信息FX、FY、FZ、MA、MB、MC的差分,取得教师信号(步骤ST4)。第2估计部105将信息存储部103中存储的位置信息[A、B、C]T作为神经网络的输入,进行用于使神经网络的输出近似于在步骤ST4中取得的教师信号的学习(步骤ST5)。具体而言,第2估计部105进行神经网络的中间层的参数优化,以使神经网络的输出近似于教师信号。
第2估计部105判定估计精度是否高于规定值(步骤ST6)。在估计精度未高于规定值的情况下(步骤ST6:否),流程图返回步骤ST3的处理,反复进行上述处理。另一方面,在估计精度高于规定值的情况下(步骤ST6:是),校准装置100结束校准处理。
接着,参照图8和图9对机器人2进行通常运转时的校准装置100的动作进行说明。
图8是示出机器人2进行通常运转时的实施方式1的校准装置100的动作的流程图。
图9是示出机器人2进行通常运转时的实施方式1的校准装置100的数据流的图。
当机器人2进行动作而变更姿态时(步骤ST11),位置信息取得部101和力信息取得部102取得位置信息[A、B、C]T和力信息FX、FY、FZ、MA、MB、MC(步骤ST12)。位置信息取得部101和力信息取得部102将取得的位置信息[A、B、C]T和力信息FX、FY、FZ、MA、MB、MC存储在信息存储部103中。第1估计部104根据信息存储部103中存储的位置信息[A、B、C]T估计施加给机器人2的力,取得估计力信息(步骤ST13)。第1估计部104将取得的估计力信息输出到控制量运算部106。
第2估计部105对已学习的神经网络的输入层输入信息存储部103中存储的位置信息[A、B、C]T,取得差分ΔFX、ΔFY、ΔFZ、ΔMA、ΔMB、ΔMC作为输出(步骤ST14)。第2估计部105将取得的差分ΔFX、ΔFY、ΔFZ、ΔMA、ΔMB、ΔMC输出到控制量运算部106。控制量运算部106计算在步骤ST13中取得的估计力信息与信息存储部103中存储的力信息FX、FY、FZ、MA、MB、MC的差分(步骤ST15)。控制量运算部106从在步骤ST15中计算出的差分中进一步减去在步骤ST14中取得的差分ΔFX、ΔFY、ΔFZ、ΔMA、ΔMB、ΔMC,计算控制量(步骤ST16)。控制量运算部106将在步骤ST16中计算出的控制量输出到控制装置4(步骤ST17),结束处理。
参照图10对校准装置100的校准结果进行说明。
图10是示出实施方式1的校准装置100的校准结果的图。
在图10A~图10F中,第1线段示出通过使用质点模型的力信息的估计进行校准后的结果,第2线段示出利用使用质点模型的力信息的估计和神经网络进行校准后的结果。
此外,图10A示出X轴方向的力信息FX,图10B示出Y轴方向的力信息FY,图10C示出Z轴方向的力信息FZ。进而,图10D示出绕X轴的力矩MX,图10E示出绕Y轴的力矩MY,图10F示出绕Z轴的力矩MZ。
图10示出在使机器人2移动时将位置信息输入到已学习的神经网络而得到的输出即差分。此外,图10示出在机器人2的末端执行器3未与工件等接触的状态下机器人2移动时的差分。因此,在图10中,能够判断为差分的值越接近“0”,则得到越良好的校准结果。在全部的图10A~图10F中,与第1线段所示的通过使用质点模型的力信息的估计进行校准后的结果相比,第2线段所示的利用使用质点模型的力信息的估计和神经网络进行校准后的结果可得到更良好的校准结果。
如上,根据本实施方式1,构成为具有:位置信息取得部101,其取得表示控制对象设备的位置和姿态的位置信息;力信息取得部102,其根据设置于控制对象设备的力觉传感器5的检测结果,取得施加给控制对象设备的力信息;第1估计部104,其根据位置信息取得部101取得的位置信息,使用物理模型估计施加给控制对象设备的力,取得估计力信息;以及第2估计部105,其根据位置信息取得部101取得的位置信息、力信息取得部102取得的力信息和第1估计部104取得的估计力信息,使用线性或非线性模型估计估计力信息与力信息的差分。因此,能够抑制重力成分的估计误差。由此,能够得到准确的校准结果,能够针对进行精密操作的装置应用该校准方法。
此外,根据该实施方式1,构成为第2估计部105将位置信息取得部101取得的位置信息作为神经网络的输入,将第1估计部104取得的估计力信息与力信息取得部102取得的力信息的差分作为神经网络的教师信号,进行该神经网络的学习。因此,在难以进行非线性的物理模型化的情况下或者针对质点模型等中难以进行物理模型化的缆线等,能够去除针对力信息的影响。
实施方式2
在上述实施方式1中,示出了位置信息是针对欧拉表达的X轴、Y轴、Z轴的旋转三自由度即[A、B、C]。关于欧拉表达的位置信息,如图11所示,例如在表示在X轴上旋转一圈的位置信息的情况下,有时利用由0度~180度的定义域θ1表达的位置信息和由0度~-180度的定义域θ2表达的位置信息表示。该情况下,在定义域θ1与定义域θ2的边界点P即180度和-180度的地点产生数值的折返,成为数值不连续的数值不连续点。在本实施方式2中示出如下结构:在欧拉表达的位置信息的定义域中,对表示位置信息的数值进行转换以使其成为不包含不连续点的表达。
图12是示出实施方式2的校准装置100A的结构的框图。
实施方式2的校准装置100A构成为在图3所示的校准装置100中追加转换部107。下面,对与实施方式1的校准装置100的结构要素相同或相当的部分标注与实施方式1中使用的标号相同的标号并省略或简化说明。
转换部107对信息存储部103中存储的位置信息[A、B、C]进行旋转矩阵计算,将其转换成向量表达。转换部107进行的旋转矩阵计算由以下的式(1)表示。
另外,在式(1)中,设以X轴为中心的旋转角度为A,以Y轴为中心的旋转角度为B,以Z轴为中心的旋转角度为C,设进行基于以X轴为中心的旋转的坐标转换的旋转矩阵为R^(A),进行基于以Y轴为中心的旋转的坐标转换的旋转矩阵为R^(B),进行基于以Z轴为中心的旋转的坐标转换的旋转矩阵为R^(C)。
此外,旋转矩阵R^(A)、旋转矩阵R^(B)和旋转矩阵R^(C)能够由以下的式(2)~式(4)表示。
转换部107将通过上述旋转矩阵计算得到的位置信息的向量值r11、r12、r13、r21、r22、r23、r31、r32、r33输出到第2估计部105。在进行校准处理的情况下,第2估计部105将从转换部107输入的位置信息的向量值r11、r12、r13、r21、r22、r23、r31、r32、r33作为神经网络的输入。第2估计部105进行如下的学习:进行神经网络的中间层的参数优化,以使神经网络的输出近似于教师信号。
此外,在使机器人2进行通常动作的情况下,第2估计部105将从转换部107输入的位置信息的向量值r11、r12、r13、r21、r22、r23、r31、r32、r33作为神经网络的输入。第2估计部105与实施方式1同样地取得差分(ΔFX、ΔFY、ΔFZ、ΔMA、ΔMB、ΔMC)作为神经网络的输出。
接着,对校准装置100A的硬件结构例进行说明。另外,省略与实施方式1相同的结构的说明。
校准装置100A中的转换部107是图5A所示的处理电路100b或图5B所示的执行内存100d中存储的程序的处理器100c。
图13是示出实施方式2的校准装置100A的第2估计部105中的神经网络和神经网络的学习规则的例子的图。
向输入层输入对位置信息[A、B、C]进行旋转矩阵计算而得到的位置信息的向量值(r11、r12、r13、r21、r22、r23、r31、r32、r33)。从输出层输出差分(ΔFX、ΔFY、ΔFZ、ΔMA、ΔMB、ΔMC)。第2估计部105在神经网络的学习过程中进行中间层的参数优化,使得从输入的向量值经由中间层得到的输出层的输出值近似于教师信号即估计力信息与力信息的差分。
另外,在图13中,以力觉传感器5是6轴传感器而能够检测机器人臂1的移动方向、朝向和旋转的情况为例进行了说明。另一方面,力觉传感器5也可以是3轴传感器,传感器的结构能够适当设定。神经网络的输出根据力觉传感器5的结构而适当设定。
图14是示出实施方式2的校准装置100A的校准处理时的动作的流程图。
另外,下面,对与实施方式1的校准装置100相同的步骤标注与图6中使用的标号相同的标号并省略或简化说明。
转换部107使用信息存储部103中存储的位置信息[A、B、C]T进行旋转矩阵计算,取得位置信息的向量值(r11、r12、r13、r21、r22、r23、r31、r32、r33)(步骤ST21)。转换部107将位置信息的向量值(r11、r12、r13、r21、r22、r23、r31、r32、r33)输出到第2估计部105。
第2估计部105计算在步骤ST3中取得的估计力信息与信息存储部103中存储的力信息FX、FY、FZ、MA、MB、MC的差分,取得教师信号(步骤ST4)。第2估计部105将从转换部107输入的位置信息的向量值(r11、r12、r13、r21、r22、r23、r31、r32、r33)作为神经网络的输入,进行如下的神经网络学习:进行用于使神经网络的输出近似于在步骤ST4中取得的教师信号的中间层的参数优化(步骤ST22)。然后,流程图进入步骤ST6的处理。
图15是示出机器人2进行通常运转时的实施方式2的校准装置100A的动作的流程图。
另外,下面,对与实施方式1的校准装置100相同的步骤标注与图8中使用的标号相同的标号并省略或简化说明。
转换部107使用信息存储部103中存储的位置信息[A、B、C]T进行旋转矩阵计算,取得位置信息的向量值(r11、r12、r13、r21、r22、r23、r31、r32、r33)(步骤ST31)。转换部107将取得的位置信息的向量值(r11、r12、r13、r21、r22、r23、r31、r32、r33)输出到第2估计部105。
第2估计部105对学习后的神经网络的输入层输入在步骤ST31中取得的位置信息的向量值(r11、r12、r13、r21、r22、r23、r31、r32、r33),取得差分ΔFX、ΔFY、ΔFZ、ΔMA、ΔMB、ΔMC作为输出(步骤ST32)。第2估计部105将取得的差分ΔFX、ΔFY、ΔFZ、ΔMA、ΔMB、ΔMC输出到控制量运算部106。然后,进行步骤ST15~步骤ST17的处理。
参照图16对校准装置100A的校准结果进行说明。
图16是示出实施方式2的校准装置100A的校准结果的图。
在图16A~图16F中,第1线段示出通过使用质点模型的力信息的估计进行校准后的结果,第2线段示出利用使用质点模型的力信息的估计和神经网络进行校准后的结果,第3线段示出在进行使用质点模型的力信息的估计和旋转矩阵计算后使用神经网络进行校准后的结果。
此外,图16A示出X轴方向的力信息FX,图16B示出Y轴方向的力信息FY,图16C示出Z轴方向的力信息FZ。进而,图16D示出绕X轴的力矩MX,图16E示出绕Y轴的力矩MY,图16F示出绕Z轴的力矩MZ。
与实施方式1同样地,图16示出在使机器人2移动时将位置信息输入到已学习的神经网络而得到的输出即差分。此外,图16示出在机器人2的末端执行器3未与工件接触的状态下机器人2移动时的差分,因此,在图16中,能够判断为差分的值越接近“0,”则得到越良好的校准结果。在全部的图16A~图16F中,示出第3线段所示的在进行使用质点模型的力信息的估计和旋转矩阵计算后使用神经网络进行校准的情况得到最良好的校准结果。
上述示出了转换部107对位置信息进行旋转矩阵计算而将其转换成向量的情况,但是,转换处理不限于旋转矩阵计算。
在转换部107中,只要是进行一个以上的数值转换使得在欧拉表达的位置信息的定义域中成为不包含表示位置信息的数值的不连续点的表达的处理即可,能够应用各种处理。
例如,应用如下处理:在欧拉表达的位置信息的定义域中,对图11所示的定义域θ2(0度~-180度)的角度加上360度,将角度范围转换成180度~360度。由此,在图11的例子所示的位置信息的定义域θ1和定义域θ2中,角度范围成为0度~360度,在定义域θ1与定义域θ2的边界点P不存在数值的不连续点。
如上所述,根据该实施方式2,构成为具有转换部107,该转换部107将位置信息取得部101取得的位置信息转换成不包含不连续点的连续的数值表达。因此,能够对位置信息的转换进行连续的校准处理而不受到位置信息的不连续点的影响。
在上述实施方式1和实施方式2中,示出了具有存储位置信息取得部101取得的位置信息和力信息取得部102取得的力信息的信息存储部103的结构,但是,也可以构成为不具有信息存储部103。该情况下,也可以构成为位置信息取得部101和力信息取得部102对第1估计部104、第2估计部105和转换部107中的应该输出信息的结构直接输出信息。
在上述实施方式1和实施方式2中,示出了如下结构:在进行校准处理时,位置信息取得部101取得位置信息,力信息取得部102取得力信息,将其存储在信息存储部103中。也可以构成为校准装置100在取得该位置信息和力信息时,使机器人2以匀速运动的方式移动。通过使机器人2匀速运动,能够取得不需要考虑惯性力的影响的信息。此外,不需要考虑惯性力的影响,因此,能够取得位置信息和力信息而不用停止机器人2的动作。
此外,在上述实施方式1和实施方式2中,校准装置100、100A也可以具有根据机器人2的设置环境的变化和机器人2的末端执行器3等的经年变化等信息对神经网络进行更新的结构。例如,校准装置100、100A取得设置有机器人2的环境的温度或湿度、末端执行器3的磨损程度等与控制对象设备有关的信息。第2估计部105在进行神经网络的学习时,还参照所取得的与控制对象设备有关的信息进行神经网络的学习。
由此,能够进行考虑到机器人2的设置环境和机器人2等的经年变化的神经网络的学习,能够执行高精度的校准处理。
除了上述以外,本发明还能够在其发明范围内进行各实施方式的自由组合、各实施方式的任意结构要素的变形或各实施方式的任意结构要素的省略。
产业上的可利用性
本发明的校准装置能够应用于用于控制一边控制力一边进行作业的臂型机器人的装置,该装置用于控制需要高精度的操作的臂型机器人。
标号说明
100、100A:校准装置;101:位置信息取得部;102:力信息取得部;103:信息存储部;104:第1估计部;105:第2估计部;106:控制量运算部;107:转换部。
Claims (8)
1.一种校准装置,该校准装置具有:
位置信息取得部,其取得表示位置和姿态中的至少任意一方变化的控制对象设备的位置和姿态的位置信息,该控制对象设备构成进行力控制的装置;
力信息取得部,其根据设置于所述控制对象设备的力觉传感器的检测结果,取得施加给所述控制对象设备的力信息;
第1估计部,其根据所述位置信息取得部取得的位置信息,使用物理模型估计施加给所述控制对象设备的力,取得估计力信息;以及
第2估计部,其根据所述位置信息取得部取得的位置信息、所述力信息取得部取得的力信息和在所述控制对象设备未与其它物体接触的情况下所述第1估计部取得的估计力信息,使用线性或非线性模型估计所述估计力信息与所述力信息的差分,
所述第2估计部将所述位置信息取得部取得的位置信息作为神经网络的输入,将所述第1估计部取得的估计力信息与所述力信息取得部取得的力信息的差分作为所述神经网络的教师信号,进行该神经网络的学习。
2.根据权利要求1所述的校准装置,其特征在于,
所述校准装置具有转换部,该转换部将所述位置信息取得部取得的位置信息转换成不包含不连续点的连续的数值表达。
3.根据权利要求2所述的校准装置,其特征在于,
所述转换部对所述位置信息取得部取得的位置信息进行旋转矩阵计算而转换成向量。
4.根据权利要求1所述的校准装置,其特征在于,
所述位置信息取得部和所述力信息取得部取得进行匀速运动的所述控制对象设备的位置信息和力信息。
5.根据权利要求1所述的校准装置,其特征在于,
所述第2估计部参照与所述控制对象设备有关的信息,使用所述线性或非线性模型估计所述估计力信息与所述力信息的差分。
6.根据权利要求5所述的校准装置,其特征在于,
与所述控制对象设备有关的信息是末端执行器的磨损程度。
7.一种校准方法,该校准方法具有以下步骤:
位置信息取得部取得表示控制对象设备的位置和姿态的位置信息;
力信息取得部根据设置于所述控制对象设备的力觉传感器的检测结果,取得施加给所述控制对象设备的力信息;
第1估计部根据所述取得的位置信息估计施加给所述控制对象设备的力,取得估计力信息;以及
第2估计部根据在所述控制对象设备未与其它物体接触的情况下所述取得的位置信息、所述取得的力信息和所述取得的估计力信息,使用线性或非线性模型估计所述估计力信息与所述力信息的差分,
所述第2估计部将所述取得的位置信息作为神经网络的输入,将所述估计出的所述估计力信息与所述力信息的差分作为所述神经网络的教师信号,进行该神经网络的学习。
8.一种控制装置,该控制装置具有:
控制量运算部,其根据表示权利要求1所述的校准装置的所述第2估计部使用线性或非线性模型估计出的所述估计力信息与所述力信息的差分的信息的输出、所述第1估计部取得的估计力信息和所述力信息取得部取得的力信息,运算所述控制对象设备的控制量;以及
控制部,其根据所述控制量运算部运算出的控制量对所述控制对象设备进行控制。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/039765 WO2019087357A1 (ja) | 2017-11-02 | 2017-11-02 | キャリブレーション装置、キャリブレーション方法および制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111278613A CN111278613A (zh) | 2020-06-12 |
CN111278613B true CN111278613B (zh) | 2022-10-04 |
Family
ID=65037042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780096277.0A Active CN111278613B (zh) | 2017-11-02 | 2017-11-02 | 校准装置、校准方法和控制装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11298828B2 (zh) |
JP (1) | JP6456555B1 (zh) |
KR (1) | KR20200042952A (zh) |
CN (1) | CN111278613B (zh) |
DE (1) | DE112017008018B4 (zh) |
TW (1) | TWI654058B (zh) |
WO (1) | WO2019087357A1 (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6669713B2 (ja) * | 2017-11-28 | 2020-03-18 | ファナック株式会社 | ロボットおよびロボットシステム |
EP3807058A1 (en) * | 2018-06-15 | 2021-04-21 | Universal Robots A/S | Estimation of payload attached to a robot arm |
CN110370271B (zh) * | 2019-04-30 | 2020-09-25 | 杭州亿恒科技有限公司 | 工业串联机器人的关节传动比误差校准方法 |
KR102272840B1 (ko) | 2020-03-04 | 2021-07-06 | 성균관대학교산학협력단 | 다축 힘센서의 센서 보정을 위한 자동 다축 힘 인가 장치 |
DE102020106998B4 (de) | 2020-03-13 | 2023-05-25 | Gottfried Wilhelm Leibniz Universität Hannover | Verfahren zum Kalibrieren eines Roboters und entsprechender Roboter |
DE102020206575A1 (de) * | 2020-05-26 | 2021-12-02 | Siemens Aktiengesellschaft | Prognose eines Systemzustands eines technischen Systems |
JP7080507B2 (ja) * | 2020-07-21 | 2022-06-06 | 株式会社トキワシステムテクノロジーズ | キャリブレーション装置、キャリブレーションプログラム、キャリブレーション方法 |
CN112605997A (zh) * | 2020-12-17 | 2021-04-06 | 哈尔滨工业大学(威海) | 一种用于机械臂的主动自适应力控装置及其控制方法 |
DE102020134785A1 (de) | 2020-12-23 | 2022-06-23 | Infineon Technologies Ag | Eine Vorrichtung und ein Verfahren zum Trainieren eines Neuronalen Netzwerks zur Bestimmung eines Drehwinkels eines Objekts und eine Vorrichtung, ein System und ein Verfahren zum Bestimmen eines Drehwinkels eines Objekts |
DE102021106990A1 (de) | 2021-03-22 | 2022-09-22 | Ferrobotics Compliant Robot Technology Gmbh | Kraftgeregelte Handhabungsvorrichtung für die robotergestützte Oberflächenbearbeitung |
CN115847392B (zh) * | 2021-09-26 | 2023-10-27 | 苏州艾利特机器人有限公司 | 一种力传感器空载读数补偿方法、装置及存储介质 |
CN114523478B (zh) * | 2022-04-24 | 2022-06-28 | 季华实验室 | 机械臂结构参数的补偿模型获取方法和补偿方法 |
DE102022205011A1 (de) | 2022-05-19 | 2023-11-23 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Bestimmen eines Moments für einen Betrieb eines Roboters unter Verwendung eines Modells und Verfahren zum Einlernen des Modells |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319507A (ja) * | 1994-05-26 | 1995-12-08 | Bridgestone Corp | ロボット制御装置 |
JP2014006566A (ja) * | 2012-06-21 | 2014-01-16 | Institute Of National Colleges Of Technology Japan | 組み込み知能コントローラ、制御システム、制御プログラム、記録媒体、及び制御方法 |
CN106874914A (zh) * | 2017-01-12 | 2017-06-20 | 华南理工大学 | 一种基于深度卷积神经网络的工业机械臂视觉控制方法 |
CN106961235A (zh) * | 2016-01-08 | 2017-07-18 | 株式会社捷太格特 | 电动机控制装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2515594B2 (ja) * | 1989-07-20 | 1996-07-10 | 三菱電機株式会社 | ロボットの力制御方法及び装置 |
JPH0683427A (ja) * | 1992-09-04 | 1994-03-25 | Japan Atom Energy Res Inst | 柔軟マニピュレータの作業点位置制御システム |
JPH06339884A (ja) * | 1993-06-02 | 1994-12-13 | Yaskawa Electric Corp | ニューラルネットワークによるマニピュレータの逆運動学モデルの学習方法 |
JPH07210207A (ja) * | 1994-01-17 | 1995-08-11 | Hitachi Ltd | 適応制御装置 |
JP3362379B2 (ja) * | 1994-05-26 | 2003-01-07 | 松下電工株式会社 | 力制御装置における力の検出方法 |
US5650704A (en) * | 1995-06-29 | 1997-07-22 | Massachusetts Institute Of Technology | Elastic actuator for precise force control |
JP3053606B2 (ja) * | 1998-02-23 | 2000-06-19 | ファナック株式会社 | ロボットに装着された力センサのキャリブレーション方法及びロボット |
DE602004012228T2 (de) * | 2004-04-16 | 2009-03-12 | Honda Research Institute Europe Gmbh | Selbstkalibrierendes Orientierungssystem für ein Handhabungsgerät |
EP1915963A1 (en) * | 2006-10-25 | 2008-04-30 | The European Atomic Energy Community (EURATOM), represented by the European Commission | Force estimation for a minimally invasive robotic surgery system |
US9554922B2 (en) * | 2008-09-04 | 2017-01-31 | Bionx Medical Technologies, Inc. | Hybrid terrain-adaptive lower-extremity systems |
JP5618066B2 (ja) | 2010-08-18 | 2014-11-05 | 株式会社Ihi | 力制御ロボットのキャリブレーション装置と方法 |
CN104968477B (zh) * | 2012-08-28 | 2017-03-08 | 睿信科机器人有限公司 | 监测机器人传感器的一致性 |
JP6361207B2 (ja) * | 2014-03-24 | 2018-07-25 | セイコーエプソン株式会社 | ロボット、ロボットシステムおよびロボット制御装置 |
CN104608113B (zh) | 2013-11-01 | 2018-07-17 | 精工爱普生株式会社 | 机器人、机器人系统以及机器人控制装置 |
US9769769B2 (en) | 2014-06-30 | 2017-09-19 | Microsoft Technology Licensing, Llc | Detecting proximity using antenna feedback |
JP6443837B2 (ja) | 2014-09-29 | 2018-12-26 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
JP6623522B2 (ja) * | 2015-01-26 | 2019-12-25 | セイコーエプソン株式会社 | ロボット、ロボットシステムおよびサーバー |
US20180169854A1 (en) | 2015-06-22 | 2018-06-21 | Mitsubishi Electric Corporation | Calibration device and robot system using same |
JP6668665B2 (ja) | 2015-10-02 | 2020-03-18 | 株式会社Ihi | ロボット装置 |
JP6575306B2 (ja) | 2015-11-04 | 2019-09-18 | 株式会社デンソー | ロボット装置 |
US11173599B2 (en) * | 2016-05-20 | 2021-11-16 | Google Llc | Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment |
CN107884099B (zh) * | 2016-09-30 | 2020-08-11 | 通用电气公司 | 校正装置、校正方法及测量系统 |
JP6707485B2 (ja) * | 2017-03-22 | 2020-06-10 | 株式会社東芝 | 物体ハンドリング装置およびその較正方法 |
-
2017
- 2017-11-02 JP JP2018518548A patent/JP6456555B1/ja active Active
- 2017-11-02 KR KR1020207010320A patent/KR20200042952A/ko not_active Application Discontinuation
- 2017-11-02 CN CN201780096277.0A patent/CN111278613B/zh active Active
- 2017-11-02 DE DE112017008018.5T patent/DE112017008018B4/de active Active
- 2017-11-02 WO PCT/JP2017/039765 patent/WO2019087357A1/ja active Application Filing
-
2018
- 2018-04-03 TW TW107111840A patent/TWI654058B/zh not_active IP Right Cessation
-
2020
- 2020-04-10 US US16/846,046 patent/US11298828B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319507A (ja) * | 1994-05-26 | 1995-12-08 | Bridgestone Corp | ロボット制御装置 |
JP2014006566A (ja) * | 2012-06-21 | 2014-01-16 | Institute Of National Colleges Of Technology Japan | 組み込み知能コントローラ、制御システム、制御プログラム、記録媒体、及び制御方法 |
CN106961235A (zh) * | 2016-01-08 | 2017-07-18 | 株式会社捷太格特 | 电动机控制装置 |
CN106874914A (zh) * | 2017-01-12 | 2017-06-20 | 华南理工大学 | 一种基于深度卷积神经网络的工业机械臂视觉控制方法 |
Also Published As
Publication number | Publication date |
---|---|
TWI654058B (zh) | 2019-03-21 |
DE112017008018B4 (de) | 2021-03-04 |
TW201918347A (zh) | 2019-05-16 |
US20200238526A1 (en) | 2020-07-30 |
KR20200042952A (ko) | 2020-04-24 |
US11298828B2 (en) | 2022-04-12 |
JPWO2019087357A1 (ja) | 2019-11-14 |
JP6456555B1 (ja) | 2019-01-23 |
WO2019087357A1 (ja) | 2019-05-09 |
CN111278613A (zh) | 2020-06-12 |
DE112017008018T5 (de) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111278613B (zh) | 校准装置、校准方法和控制装置 | |
JP6430986B2 (ja) | ロボットを用いた位置決め装置 | |
US11235461B2 (en) | Controller and machine learning device | |
CN114450131B (zh) | 机器人系统的无导数模型学习系统及设计 | |
CN107683190B (zh) | 用于进行机器人机械手的开环和闭环控制的装置和方法 | |
Cheah et al. | Adaptive vision and force tracking control for robots with constraint uncertainty | |
CN107703756B (zh) | 动力学模型参数辨识方法、装置、计算机设备及存储介质 | |
JP2007041733A (ja) | 運動体の姿勢角検出装置 | |
JP6698733B2 (ja) | モータエンコーダ及びセンサを用いて学習制御を行うロボットシステム | |
CN112720460B (zh) | 机器人控制方法、装置、计算机可读存储介质及机器人 | |
Tan et al. | New varying-parameter recursive neural networks for model-free kinematic control of redundant manipulators with limited measurements | |
CN113263496B (zh) | 一种六自由度机械臂优化路径的方法和计算机设备 | |
US20190054619A1 (en) | Operating a hand-guided robot | |
CN112264993B (zh) | 机器人末端的控制方法、机器人及存储介质 | |
Zhang et al. | Time delay compensation of a robotic arm based on multiple sensors for indirect teaching | |
Stemmer et al. | Robust assembly of complex shaped planar parts using vision and force | |
Pérez et al. | FPGA-based visual control system using dynamic perceptibility | |
Božek et al. | Reverse validation of a programmed robot trajectory based on INS | |
Huynh et al. | Dynamic Hybrid Filter for Vision‐Based Pose Estimation of a Hexa Parallel Robot | |
US20240066692A1 (en) | Method for determining a torque for an operation of a robot using a model and method for teaching the model | |
US20190389052A1 (en) | Control apparatus, robot, and robot system | |
Kamboj et al. | Event-triggered control for trajectory tracking by robotic manipulator | |
WO2024185389A1 (ja) | 制御システム、制御方法、及びプログラム | |
JP7066065B2 (ja) | パラメータ同定装置、パラメータ同定方法およびコンピュータプログラム | |
CN116604548A (zh) | 基于阻抗控制的机械臂控制方法、机械臂及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |