[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2019187546A1 - 制御装置、制御方法、および、プログラム - Google Patents

制御装置、制御方法、および、プログラム Download PDF

Info

Publication number
WO2019187546A1
WO2019187546A1 PCT/JP2019/001901 JP2019001901W WO2019187546A1 WO 2019187546 A1 WO2019187546 A1 WO 2019187546A1 JP 2019001901 W JP2019001901 W JP 2019001901W WO 2019187546 A1 WO2019187546 A1 WO 2019187546A1
Authority
WO
WIPO (PCT)
Prior art keywords
contact
force
grip
unit
control device
Prior art date
Application number
PCT/JP2019/001901
Other languages
English (en)
French (fr)
Inventor
成田 哲也
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to KR1020207026589A priority Critical patent/KR102586779B1/ko
Priority to EP19776052.3A priority patent/EP3778153A4/en
Priority to US16/982,204 priority patent/US11999051B2/en
Priority to JP2020509717A priority patent/JP7276318B2/ja
Priority to CN201980020331.2A priority patent/CN111867791A/zh
Publication of WO2019187546A1 publication Critical patent/WO2019187546A1/ja
Priority to JP2023073719A priority patent/JP2023086924A/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • B25J13/083Grasping-force detectors fitted with slippage detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control

Definitions

  • the present disclosure relates to a control device, a control method, and a program.
  • Patent Document 1 describes a technique for detecting contact with an object using a plurality of pressure detection elements arranged at predetermined joints of a robot hand.
  • the present disclosure proposes a new and improved control device, control method, and program capable of appropriately controlling the gripping force when the contact portion and the object come into contact with each other.
  • a control device includes a grip control unit that controls a grip force related to the contact unit according to a force.
  • a control method is provided, wherein the processor controls a gripping force associated with the contact portion.
  • the computer may be configured such that the contact unit and the object are based on a sensing result by the tactile sensor disposed in the contact unit and a sensing result by the force sensor disposed in the contact unit.
  • a program for causing a gripping control unit to control a gripping force related to the contact portion in accordance with the contact force at the time of contact is provided.
  • FIG. 3 is a diagram illustrating an example of a physical configuration of the robot 10 according to the first embodiment of the present disclosure. It is a block diagram showing an example of functional composition of robot 10 concerning a 1st embodiment. It is the block diagram which showed an example of the detailed structure of the contact force specific
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
  • a plurality of constituent elements having substantially the same functional configuration are distinguished from each other as necessary, such as the grip portion 104a and the grip portion 104b.
  • the grip portion 104 when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.
  • the grip portion 104 when there is no need to particularly distinguish the grip portion 104a and the grip portion 104b, they are simply referred to as the grip portion 104.
  • a hand unit for example, a robot hand or a gripper
  • an object handled in a factory assembly line for example, has a known shape, mass, coefficient of friction, and the like. Therefore, it is usually easy to set an appropriate gripping force according to the object. There are many cases. On the other hand, for a wide variety of objects located in an arbitrary environment such as a home or a hospital, the shape, mass, or friction coefficient of each individual object is often unknown, so appropriate gripping force Is difficult to set.
  • a pressure distribution sensor is disposed at the tip (fingertip) of the hand unit, and a relative deviation (hereinafter also referred to as “slip”) between the object to be grasped and the fingertip.
  • Slip a relative deviation between the object to be grasped and the fingertip.
  • CoP Center Of Pressure
  • the robot 10 according to each embodiment has been created by focusing on the above circumstances.
  • the robot 10 according to each embodiment includes the grip unit 104 and the object based on the sensing result by the tactile sensor 106 disposed on the grip unit 104 and the sensing result by the force sensor 108 disposed on the grip unit 104.
  • the contact force at the time of contact with is calculated.
  • the contact force at the time of contact between the grip 104 and the object is calculated with higher accuracy. be able to.
  • the robot 10 is an example of a control device according to the present disclosure.
  • the robot 10 may be a device (machine) capable of acting (for example, gripping) using electrical and / or magnetic action.
  • the robot 10 may be a mobile or fixed manipulation device.
  • the robot 10 may be a humanoid robot, a pet robot, various industrial machines, a vehicle (for example, an autonomous vehicle, a ship, a flying object (for example, a drone)), a toy, or the like.
  • a vehicle for example, an autonomous vehicle, a ship, a flying object (for example, a drone)
  • a toy or the like.
  • the robot 10 may include at least one gripping unit 104 and an actuator 130 that drives the gripping unit 104.
  • the tactile sensor 106 may be disposed on the entire surface or a part of the surface of the grip portion 104.
  • the force sensor 108 may be disposed in the region where the actuator 130 is disposed.
  • the grip portion 104 is an example of a contact portion according to the present disclosure.
  • the grip portion 104 has a structure capable of gripping an external object (the object 20 in the example shown in FIG. 1).
  • the grip unit 104 is a robot finger
  • the structure of the grip portion 104 is not particularly limited as long as it can grip an object.
  • the robot 10 may have one or more robot arms (not shown).
  • the grip part 104 may be disposed at the tip of the robot arm as a hand part (for example, a robot hand, a gripper, or an end effector).
  • the robot 10 may have a plurality of legs.
  • the grip portion 104 may be arranged as one tip portion (for example, a foot portion) of the plurality of leg portions.
  • the tactile sensor 106 can measure the total number of contact positions with the object (for example, a contact center position) and individual contact points (hereinafter also referred to as contact locations) at the time of contact with the object. Can be configured.
  • the tactile sensor 106 may be a pressure distribution sensor, a one-axis force sensor array, a three-axis force sensor array, a Vision sensor, or a sensor using a laser.
  • the pressure distribution sensor may be a sensor in which a plurality of pressure detection elements are arranged on the Array. The pressure distribution sensor can sense contact with an object by detecting the pressure applied to each of the plurality of pressure detection elements.
  • the Vision sensor can sense contact with an object by measuring deformation of the material on the sensor surface caused by contact with the object with a camera.
  • the sensor using a laser can sense the presence or absence of contact between the sensor surface and an object by using a laser.
  • the touch sensor 106 may be capable of further measuring the contact force intensity ratio between the contact points.
  • the contact force may be a force generated at a point of contact with the object.
  • the tactile sensor 106 may be able to further measure the normal force at each contact point and / or the absolute value of the shear force at each contact point.
  • the tactile sensor 106 transmits the sensing results (for example, the total number of contact points, the position information of each contact point, and the contact force intensity ratio between the contact points) to the contact force specifying unit 110 and the slip detection unit 112. Can do.
  • the force sensor 108 is configured to be able to measure the resultant force of contact force applied to the surface of the grip portion 104 (in other words, reaction force from the object) when the object and the grip portion 104 come into contact with each other. Can be done. Alternatively, the force sensor 108 may be configured to be able to measure the force, torque, or moment generated by the actuator 130.
  • the force sensor 108 may be a 3-axis force sensor or a 6-axis force sensor.
  • a torque sensor may be arranged in the actuator 130, and the force sensor 108 may be the torque sensor.
  • the force sensor 108 can measure the torque generated by the actuator 130 (as the generated force of the actuator 130).
  • the force sensor 108 can transmit a sensing result (force, torque, or moment) to the contact force specifying unit 110 and the grip control unit 100.
  • the actuator 130 can generate a force (or torque) corresponding to the target command value according to the control of the grip control unit 100 described later. By transmitting the generated force to the grip portion 104, the grip portion 104 can operate. For example, the actuator 130 is driven according to the control of the grip control unit 100 so that the grip unit 104 can generate a target grip force (in other words, a force, moment, or torque that the actuator 130 should generate).
  • a target grip force in other words, a force, moment, or torque that the actuator 130 should generate.
  • the actuator 130 can be disposed between the grip 104 and the main body (not shown) of the robot 10 as shown in FIG.
  • the actuator 130 may be disposed in the robot arm.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the robot 10 according to the first embodiment.
  • the robot 10 includes a grip control unit 100, a grip unit 104, a tactile sensor 106, a force sensor 108, a contact force specifying unit 110, and a slip detection unit 112.
  • the description overlapping with the above description is omitted.
  • the contact force identification unit 110 is an example of a contact force calculation unit according to the present disclosure.
  • the contact force specifying unit 110 may include a processing circuit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). Further, the contact force specifying unit 110 may include a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory).
  • the contact force specifying unit 110 calculates the contact force when the grip unit 104 and the object come into contact based on the sensing result by the tactile sensor 106 and the sensing result by the force sensor 108. For example, the contact force specifying unit 110 uses information about individual contact points specified by a sensing result by the tactile sensor 106 and the force sensor 108 when the grip unit 104 and the object contact at one or more points. Based on the sensing result, the contact force at each contact point is calculated. As will be described later, the information regarding the individual contact points includes, for example, the total number of contact points, position information of the individual contact points, and a contact strength ratio between the individual contact points.
  • FIG. 3 is a block diagram illustrating an example of a more detailed configuration of the contact force specifying unit 110.
  • the contact force specifying unit 110 may include a contact location number calculating unit 150, a contact position calculating unit 152, a contact strength calculating unit 154, and a contact force calculating unit 156.
  • the contact number calculation unit 150 calculates the total number of contact points (contact points) based on the sensing result by the tactile sensor 106 when it is detected that the grip unit 104 and the object are in contact with each other at one or more points. . At this time, for example, the contact location number calculation unit 150 calculates the total number of contact points based on the calculation method corresponding to the type of the touch sensor 106 and the sensing result by the touch sensor 106.
  • the contact number calculation unit 150 first specifies (calculates) the number of maximum points of pressure sensed by the tactile sensor 106. Or identify individual points where the slope of the pressure distribution approaches “0”. And the contact location number calculation part 150 calculates the total number of contact points based on these specific results.
  • the contact point number calculating unit 150 first calculates a change in the deformation amount of the surface of the tactile sensor 106 based on the contact between the grasping unit 104 and the object. , Based on the sensing result by the tactile sensor 106. And the contact location number calculation part 150 calculates the total number of contact points based on this specific result.
  • the contact position calculation unit 152 specifies the positional relationship between all the corresponding contact points (hereinafter, may be referred to as “each contact point”) based on the sensing result of the touch sensor 106.
  • the contact position calculation unit 152 specifies the position information of each contact point (for example, the position information of the center position of each contact point) based on the sensing result by the touch sensor 106.
  • the contact position calculation unit 152 specifies, for each contact point, information on the relative position of the contact point on the touch sensor 106 as position information of the contact point based on a sensing result by the touch sensor 106.
  • the information on the relative position of each contact point may be expressed in the form of coordinates with the end point of the tactile sensor 106 as the origin.
  • the present invention is not limited to this example, and the information on the relative position of each contact point may be determined as information on the relative position based on any other position where the torque or moment generated by the actuator 130 can be calculated. .
  • the contact strength calculation unit 154 detects the contact force strength ratio between the corresponding contact points (for example, the contact strength ratio of each of other contact points based on the contact strength of a certain contact point) as a result of sensing by the tactile sensor 106.
  • Calculate based on Advantages of such a calculation method include the following. For example, when an error such that a gain corresponding to a certain coefficient is applied as a whole is included in a predetermined sensing result (for example, temperature identification), the gain is offset by using the contact force intensity ratio between the contact points. As a result, the influence of errors can be minimized.
  • the contact force calculation unit 156 includes the total number of contact points calculated by the contact point number calculation unit 150, the position information of each contact point specified by the contact position calculation unit 152, and each of the contact strength calculation units 154. Based on the contact force intensity ratio between the contact points and the sensing result by the force sensor 108, the contact force at each contact point is calculated. For example, the contact force calculation unit 156 determines the number of contact points based on the determination result of whether or not the resultant force of the contact force between the grip portion 104 and the object (that is, the resultant force of the contact force at each contact point) can be specified. The contact force at each contact point is calculated using the calculation result by the calculation unit 150, the calculation result by the contact position calculation unit 152, and the calculation result by the contact strength calculation unit 154.
  • the contact force calculation unit 156 uses the following calculation method to calculate each contact The contact force at each point is calculated.
  • the force sensor 108 includes a triaxial force sensor, and the triaxial force sensor is arranged on the opposite side of the surface of the grasping unit 104 that grasps an object. The case where it is arrange
  • the contact force calculation unit 156 first determines whether the total number of contact points calculated by the contact point number calculation unit 150 is one, two, or three or more. To do. When the total number of the contact points is one, the contact force calculation unit 156 calculates the resultant force itself sensed by the force sensor 108 as the contact force at the corresponding contact point.
  • the contact force calculation unit 156 first determines the position information of each contact point specified by the contact position calculation unit 152. The distances l1 and l2 from the predetermined reference position (for example, the end point of the tactile sensor 106) to each contact point are calculated.
  • the contact force at each contact point is defined as F1 and F2
  • the resultant force of the contact force sensed by the force sensor 108 is defined as Fall.
  • the contact force calculation unit 156 calculates F1 and F2 from the following mathematical formulas (1) and (2), respectively.
  • the contact force calculation unit 156 calculates Fi using the following formula (4).
  • the contact force calculation part 156 calculates the contact force in each contact point, for example using the following calculation methods, for example. First, the contact force calculation unit 156 determines whether the total number of contact points calculated by the contact location number calculation unit 150 is one or two or more. When the total number of contact points is one, the contact force calculation unit 156 first determines a predetermined reference position (for example, based on the position information of each contact point specified by the contact position calculation unit 152. The distance l1 from the end point of the touch sensor 106 to the corresponding contact point is calculated. Then, the contact force calculation unit 156 uses the generated force (that is, ⁇ ) of the actuator 130 sensed by the force sensor 108, l1, and the following equation (6) to obtain the contact force at the corresponding contact point. (F1) is calculated.
  • the contact force calculation unit 156 calculates Fi using the following formula (7).
  • the contact force calculation unit 156 can transmit the calculated contact force at each contact point to the grip control unit 100.
  • the slip detection unit 112 may be configured to include the processing circuit described above.
  • the slip detection unit 112 may further include the above memory.
  • the slip detection unit 112 detects a slip amount of the object with respect to the grip part 104 while the grip part 104 and the object are in contact based on a sensing result by the tactile sensor 106.
  • the slip detection unit 112 detects the slip amount of the object based on the contact force at each contact point calculated by the contact force specifying unit 110 and the sensing result by the tactile sensor 106.
  • “slip” may mean a relative motion (relative displacement) between the surface of the grip portion 104 and the object, and a precursor to the occurrence of the relative motion.
  • the precursor phenomenon is, for example, a phenomenon in which a part of the contact surface with the object in the grip portion 104 slips or peels off (sometimes referred to as local slip).
  • the slip detection unit 112 detects the amount of slip of the object (for example, the phenomenon of the precursor) based on the detection result of the CoP movement, the detection result of the change in the area of the contact region, or the detection result of the change in the contact position. ) May be detected.
  • the slip detection unit 112 can transmit a detection result (for example, a detection result of the slip amount, a detection result of the presence or absence of slip, and / or a slip-dependent change amount) to the grip control unit 100.
  • a detection result for example, a detection result of the slip amount, a detection result of the presence or absence of slip, and / or a slip-dependent change amount
  • the grip control unit 100 can be configured to include the processing circuit described above.
  • the grip control unit 100 may further include the above memory.
  • the grip control unit 100 includes a grip force calculation unit 102.
  • the grip control unit 100 controls the movement of the grip unit 104 based on a target grip force calculated by the grip force calculation unit 102 described later (that is, the force with which the grip unit 104 grips the object). For example, the grip control unit 100 controls the driving of the actuator 130 so that the current gripping force of the gripping unit 104 approaches the target gripping force calculated by the gripping force calculation unit 102.
  • the grip control unit 100 can perform known feedback control on the grip unit 104 based on the sensing results sequentially obtained from the force sensor 108.
  • the gripping force calculation unit 102 determines the target of the gripping unit 104 based on the contact force at each contact point calculated by the contact force specifying unit 110 and the slip amount of the object to be gripped detected by the slip detection unit 112. The gripping force is calculated.
  • the gripping force calculation unit 102 is greater than the current gripping force of the gripping unit 104 according to the amount of slip detected by the slip detection unit 112. The value is calculated as the target gripping force.
  • the gripping force calculation unit 102 causes the gripping unit (from now on) to gradually decrease the gripping force of the gripping unit 104.
  • the target gripping force 104 is calculated.
  • FIG. 4 is a flowchart illustrating an example of a process flow according to the first embodiment.
  • FIG. 4 an example of a processing flow in a scene where the robot 10 grips a target object will be described.
  • the contact force specifying unit 110 of the robot 10 detects whether or not the grip unit 104 has come into contact with the target object based on the sensing result of the tactile sensor 106 (S101).
  • the contact force specifying part 110 repeats the process of S101 after elapse of a predetermined time, for example.
  • the contact force specifying unit 110 determines the total number of contact points between the grip 104 and the object, The position information and the contact strength ratio between the contact points are calculated based on the sensing result by the touch sensor 106 (S103).
  • the contact force specifying unit 110 calculates the contact force at each contact point based on the calculation result in S103 and the sensing result by the force sensor 108 (for example, the sensing result at the most recent S101 time point) (S105). ).
  • the slip detection unit 112 determines the position of the object with respect to the grip unit 104 based on the contact force at each contact point calculated in S105 and the sensing result by the tactile sensor 106 (for example, the sensing result at the latest S101). The amount of slip is detected (S107).
  • the gripping force calculation unit 102 calculates the target gripping force of the gripping unit 104 based on the contact force at each contact point calculated in S105 and the slip amount of the object detected in S107. For example, the gripping force calculation unit 102 generates the actuator 130 so that the gripping force of the gripping unit 104 reaches the target gripping force based on the contact force at each contact point and the detected slip amount of the object. The force to be calculated is calculated (S109).
  • the grip control unit 100 controls the driving of the actuator 130 based on the target gripping force (or the force to be generated by the actuator 130) calculated in S109 (S111).
  • the robot 10 according to the first embodiment is based on the sensing result by the tactile sensor 106 disposed on the grip unit 104 and the sensing result by the force sensor 108 disposed on the grip unit 104. Based on this, the contact force when the grip portion 104 and the object come into contact is calculated. As described above, according to the first embodiment, since both the sensing result by the tactile sensor 106 and the sensing result by the force sensor 108 are used, the contact force at the time of contact between the grip 104 and the object is increased with higher accuracy. Can be calculated. For example, the contact force at each contact point when the grip 104 and the object contact at a plurality of contact points can be calculated with higher accuracy. Also, the contact force calculation algorithm can be changed robustly according to the sensor method and arrangement of the tactile sensor 106.
  • the amount of slip of the object with respect to the grip 104 can be detected with higher accuracy. it can. For example, it is possible to detect a slip that varies according to the magnitude of the contact force with higher accuracy. Then, by improving the accuracy of slip detection, the gripper 104 can grip an object with a smaller force. For example, even when the reaction force from the object to be grasped, such as a flexible object or a fragile object, is small, the grasping unit 104 can safely grasp the object.
  • the contact timing between the grip portion 104 and the object can also be detected more accurately.
  • the contact sensitivity of the tip for example, fingertip
  • a contact timing can be detected more correctly.
  • the gripping unit 104 can grip a corresponding object more appropriately.
  • the start timing of the slip detection process by the slip detection unit 112 can be flexibly adjusted. As a result, it is possible to reduce the processing load on the robot 10 during a period other than the period in which the gripping unit 104 grips an object.
  • the control can be switched to a more accurate timing in a scene where the robot 10 switches the control at the contact timing.
  • a control method or a parameter for example, a target value of speed or force
  • the robot 10 can be changed at precise timing. For this reason, compared with the existing technology, it becomes possible to deal with various situations more broadly and more appropriately. For example, the robot 10 can safely hold the object without defeating or moving the object.
  • the grip timing can be set more appropriately, so that the robot 10 can execute the task more appropriately. it can.
  • the contact force can be calculated more accurately even during multipoint contact.
  • the following three effects are obtained. First, even if the object to be grasped has a complicated shape, it can be safely grasped without destroying the object. Second, even if the object to be grasped has a complicated shape, the slip amount of the object can be detected appropriately. For this reason, the robot 10 can safely hold the object without sliding it down. Thirdly, even if a slip occurs at one or more of all corresponding contact points, the slip can be detected with high accuracy. Therefore, the corresponding object can be gripped more safely.
  • various types of sensors such as a pressure distribution sensor and a vision sensor can be used as the tactile sensor 106, and the range of sensor method selection is wide. For this reason, it is possible to select an appropriate processing method according to the form of the robot 10 and the form of the sensor mounted on the robot 10.
  • the contact force at each contact point is calculated even if an object is in contact with an arbitrary position in the area as long as it is within an area that can be sensed by the tactile sensor 106. be able to. For this reason, position adjustment may not be necessary when the grip portion 104 grips an object. As a result, the following three effects are obtained. First, the target object can be gripped more quickly. Second, it is not necessary to additionally mount a sensor (for example, a camera) for position adjustment on the robot 10. Third, the allowable range of error due to bending of the structure supporting the grip portion 104 can be further increased. For this reason, since it becomes possible to reduce the intensity
  • Second Embodiment >> The first embodiment has been described above. Next, a second embodiment according to the present disclosure will be described. As will be described later, according to the second embodiment, the user can specify the upper limit value of the contact force between the grip portion 104 and the object.
  • the physical configuration of the robot 10 according to the second embodiment may be the same as that of the first embodiment shown in FIG. In addition, regarding the third to ninth embodiments described later, the physical configuration of the robot 10 may be the same as that of the first embodiment.
  • only contents different from the first embodiment will be described, and description of the same contents will be omitted.
  • FIG. 5 is a block diagram illustrating an example of a functional configuration of the robot 10 according to the second embodiment.
  • the robot 10 according to the second embodiment further includes a contact force threshold value storage unit 200 as compared with the first embodiment illustrated in FIG. 2.
  • the contact force threshold value storage unit 200 stores an upper limit value of contact force at the time of contact between the grip unit 104 and an object (hereinafter, referred to as “upper limit specification value of contact force”) specified in advance by the user.
  • the upper limit specification value of the contact force may be the same value that does not depend on the type of the object to be grasped.
  • the gripping force calculation unit 102 calculates the target gripping force of the gripping unit 104 (from now on) based on the upper limit specified value of the contact force stored in the contact force threshold storage unit 200. calculate.
  • the gripping force calculation unit 102 causes the actuator 130 so that the contact force at each contact point between the gripping unit 104 and the object is equal to or less than the upper limit specified value of the contact force stored in the contact force threshold storage unit 200.
  • the upper limit value of the force that should be generated is calculated.
  • the user can specify the upper limit value of the contact force between the grip portion 104 and the object. For this reason, since the robot 10 can be controlled so that the contact force does not become excessive, for example, even a flexible object or a fragile object can be safely gripped. Furthermore, the grip strength can be changed according to the application installed in the robot 10 and the situation on the spot.
  • the user interface capable of specifying the grip strength of the grip portion 104 and the robot 10 be configured so as to be able to cooperate with each other via a predetermined network (such as the Internet or a public network). According to this configuration, the user can more easily specify a desired grip strength.
  • FIG. 6 is a block diagram illustrating an example of a functional configuration of the robot 10 according to the third embodiment. As illustrated in FIG. 6, the robot 10 according to the third embodiment further includes an object recognition unit 202 as compared with the second embodiment illustrated in FIG. 5.
  • the object recognition unit 202 can be configured to include an object recognition sensor (for example, an image sensor (camera) or an infrared sensor).
  • the object recognition unit 202 senses each object located around the robot 10 (for example, within the movable range of the gripping unit 104), and recognizes the type of each object based on the sensing result.
  • the contact force threshold value storage unit 200 stores, for example, an upper limit value of the contact force between the grip unit 104 and the object for each object type specified in advance by the user.
  • the grip force calculation unit 102 recognizes the type of the object to be gripped recognized by the object recognition unit 202 and the upper limit of the contact force of the corresponding object stored in the contact force threshold storage unit 200. Based on the value, the target gripping force of the gripping unit 104 (or the upper limit value of the force to be generated by the actuator 130) is calculated.
  • the upper limit value of the contact force between the grip portion 104 and the object can be appropriately specified for each type of object. For this reason, since the robot 10 can grip the object with an appropriate force according to the type of the object to be gripped, it can be gripped more safely. Further, according to the third embodiment, the user does not need to specify the upper limit value of the contact force each time, and the number of operations can be reduced.
  • FIG. 7 is a block diagram illustrating an example of a functional configuration of the robot 10 according to the fourth embodiment. As illustrated in FIG. 7, the robot 10 according to the fourth embodiment further includes a contact force upper limit specifying unit 204 as compared with the third embodiment illustrated in FIG. 6.
  • the contact force threshold value storage unit 200 includes the type of the corresponding object recognized by the object recognition unit 202 at the time of past gripping, and the state of the corresponding object at the time of gripping (for example, whether it has been destroyed or not). And the gripping force of the gripper 104 at the time of gripping can be stored in association with each other.
  • the upper limit value of the contact force within a range in which the object is not destroyed when the grip 104 is in contact with the object can be specified in advance based on such information.
  • the contact force threshold value storage unit 200 may further store an upper limit value of the contact force within a range in which the object is not destroyed for each type of object.
  • the contact force upper limit specifying unit 204 does not destroy the object to be grasped based on the type of the object to be grasped recognized by the object recognizing unit 202 and the information stored in the contact force threshold storage unit 200. Specify the upper limit of the contact force within the range.
  • the gripping force calculation unit 102 is based on the upper limit value of the contact force specified by the contact force upper limit specifying unit 204 and the contact force at each contact point specified by the contact force specifying unit 110. Then, the target gripping force of the gripping unit 104 (or the upper limit value of the force that the actuator 130 should generate) is calculated.
  • the upper limit value of the contact force between the grip portion 104 and the object can be appropriately specified according to the past gripping experience.
  • the robot 10 can set the upper limit value of the contact force when the object to be gripped has been successfully gripped in the past as the upper limit value of the contact force between the grip portion 104 and the object. For this reason, the robot 10 can hold each object more reliably. Further, the robot 10 can determine the gripping possibility of the object while gripping the object. For example, if it is detected that the slip does not stop even when the upper limit value of the contact force of the object is added, the robot 10 cannot grip the object because the friction coefficient of the object is too small. It can be determined that it is possible or difficult.
  • FIG. 8 is a block diagram illustrating an example of a functional configuration of the robot 10 according to the fifth embodiment. As illustrated in FIG. 8, the robot 10 according to the fifth embodiment further includes an input unit 206 as compared with the first embodiment illustrated in FIG. 2.
  • the input unit 206 may include an input device (for example, a mouse, a keyboard, or a touch panel), or may include a voice input device (for example, a microphone).
  • the input unit 206 receives various user inputs to the robot 10.
  • the input unit 206 may accept an input of the upper limit value of the contact force by the user every time the grip unit 104 grips an object.
  • the user may input a multiplier for the reference value of the contact force to the input unit 206, or input one of a plurality of levels of contact force prepared in advance. May be entered.
  • input information for the input unit 206 is transmitted to the grip control unit 100, and the grip control unit 100 may determine the upper limit value of the actual contact force based on the input information.
  • the input part 206 may receive the input of the target value of contact force by a user.
  • the gripping force calculation unit 102 can calculate the force (target value) that the actuator 130 should generate so that the current contact force of the gripping unit 104 is the same as the target value of the input contact force. .
  • the user can easily specify the upper limit value of the contact force between the grip portion 104 and the object.
  • the user can designate the upper limit value of the contact force each time (for example, in real time).
  • the robot 10 can respond immediately and robustly to changes in the situation on the spot and changes in the application.
  • the user can also intuitively input the upper limit value of the contact force.
  • the user can easily specify the target value of the contact force between the grip portion 104 and the object.
  • the user can designate the target value of the contact force each time (for example, in real time). Further, the user can specify a desired contact force even when using an application that applies a constant contact force to an object.
  • FIG. 9 is a block diagram illustrating an example of a functional configuration of the robot 10 according to the sixth embodiment. As illustrated in FIG. 9, the robot 10 according to the sixth embodiment further includes a contact force upper limit specifying unit 204 and a gripping state recognition unit 208 as compared to the first embodiment illustrated in FIG. 2. Have.
  • the gripping state recognition unit 208 may be configured to include a gripping state recognition sensor (for example, an image sensor (camera) or an infrared sensor).
  • the gripping state recognizing unit 208 senses the object gripped by the gripping unit 104, and determines the state of the object (for example, whether it is destroyed or deformed) based on the sensing result. Can be recognized in real time.
  • the contact force upper limit specifying unit 204 includes the recognition result of the state of the target object by the gripping state recognition unit 208, and the gripping unit 104 and the object calculated by the contact force specifying unit 110. Based on the current contact force, the upper limit value of the contact force between the grip portion 104 and the object is calculated, for example, in real time.
  • the upper limit value of the contact force can be appropriately adjusted according to the state of the object being grasped. For example, even when deformation or destruction of an object that cannot be predicted in advance occurs, the robot 10 responds to these events in real time by adjusting the upper limit value of the contact force in real time. be able to.
  • the robot 10 recognizes in advance whether or not the object (or the robot 10 itself) being held by the holding unit 104 is likely to come into contact with an external environment (for example, a human being or an obstacle). May be. In this case, in order to avoid a situation where the object slides down due to the contact, the robot 10 may adjust the contact force based on the recognition result as a slip prevention operation.
  • an external environment for example, a human being or an obstacle.
  • FIG. 10 is a block diagram illustrating an example of a functional configuration of the robot 10 according to the seventh embodiment. As illustrated in FIG. 10, the robot 10 according to the seventh embodiment further includes a contact detection unit 210 as compared to the first embodiment illustrated in FIG. 2.
  • the contact detection unit 210 detects the presence / absence of contact between the grip unit 104 and the object based on the calculation result by the contact force identification unit 110.
  • the contact detection unit 210 can output a contact trigger to the slip detection unit 112 when detecting the start of contact between the grip unit 104 and the object.
  • the slip detection unit 112 determines whether to perform a slip amount detection process based on the detection result by the contact detection unit 210. For example, the slip detection unit 112 performs the slip detection process only while the contact between the grip unit 104 and the object is detected by the contact detection unit 210. In other words, the slip detection unit 112 does not perform the slip detection process while the contact between the grip 104 and the object is not detected by the contact detection unit 210. For example, the slip detection unit 112 may start the slip detection process only when a contact trigger is received from the slip detection unit 112.
  • the slip detection process it is necessary to process the values of each sensor in the entire tactile sensor 106, so that the processing load is large.
  • the contact between the grip portion 104 and the object is not detected. Can reduce the processing load. As a result, it is possible to reduce memory usage and power consumption.
  • FIG. 11 is a block diagram illustrating an example of a functional configuration of the robot 10 according to the eighth embodiment. As shown in FIG. 11, the robot 10 according to the eighth embodiment further includes a contact detection unit 210 and a main body control unit 212 as compared to the first embodiment shown in FIG. 2.
  • the contact detection unit 210 may output a contact trigger to the grip control unit 100 and the main body control unit 212 when detecting the start of contact between the grip unit 104 and the object.
  • Main body control unit 212 controls the operation of the main body unit of the robot 10 (for example, one or more joints included in a part other than the grip unit 104) based on the detection result by the contact detection unit 210.
  • the main body control unit 212 detects the type of control performed on the main body unit of the robot 10 and / or one of the control parameters related to the main body unit of the robot 10 when contact between the grip unit 104 and the object is detected as a contact. Switching is performed depending on whether or not it is detected by the unit 210.
  • the type of control may include, for example, position control or force control.
  • the control parameter may include, for example, mechanical impedance, control gain, position, force, speed, torque, or other command value.
  • the control parameter may further include an upper limit value or a lower limit value of these parameters.
  • the main body control unit 212 performs only position control on the main body unit of the robot 10. Then, after the contact detection unit 210 detects the contact between the grip unit 104 and the object, the main body control unit 212 controls the main body unit of the robot 10 to perform force control instead of position control. May be switched.
  • the main body control unit 212 may switch the value of the control parameter related to the main body unit of the robot 10 according to the detection result, for example. For example, when contact between the gripping unit 104 and an object is detected, the main body control unit 212 reduces the control gain for the main body unit of the robot 10 so that the main body unit of the robot 10 moves while suppressing a rapid change. May be. Alternatively, when the contact is detected, the main body control unit 212 may change the mechanical impedance setting value of the main body of the robot 10 so that the movement of the main body of the robot 10 becomes more flexible.
  • the main body control unit 212 does not change the type of control for the main body of the robot 10 as force control, and sets the mechanical impedance (control parameter) of the main body of the robot 10 at the contact timing between the grip 104 and the object. Example) may be changed.
  • the grip control unit 100 controls the operation of the grip unit 104 based on the detection result by the contact detection unit 210. For example, the grip control unit 100 detects the contact between the grip unit 104 and the object by the contact detection unit 210 and / or one of a control parameter for the grip unit 104 and / or a control parameter related to the grip unit 104. Switch according to whether or not it was done. Note that the type of control and the specific contents of the control parameter may be the same as those described above (in relation to the main body control unit 212).
  • the grip control unit 100 performs only position control on the grip unit 104. After the contact detection unit 210 detects contact between the grip unit 104 and the object, the grip control unit 100 switches the control type so that force control is performed on the grip unit 104 instead of position control. May be.
  • the type of control to be executed or the value of the control parameter can be appropriately switched before and after the contact between the grip 104 and the object.
  • FIG. 12 is a block diagram illustrating an example of a functional configuration of the robot 10 according to the ninth embodiment. As shown in FIG. 12, the ninth embodiment differs from the first embodiment shown in FIG. 2 only in that the force sensor 108 and the slip detection unit 112 are connected.
  • the slip detection unit 112 is based on the contact force at each contact point calculated by the contact force specifying unit 110, the sensing result by the tactile sensor 106, and the sensing result by the force sensor 108. The amount of slipping of the object while the grip 104 is in contact with the object is detected.
  • the main body control unit 212 according to the eighth embodiment is not limited to the example that only the robot 10 according to the eighth embodiment has.
  • the robot 10 according to any other embodiment may similarly include the main body control unit 212.
  • the contact unit according to the present disclosure is the grip unit 104 has been described, but the present disclosure is not limited to the example.
  • the contact portion is not necessarily limited to an example having a configuration capable of gripping an object, and may have a configuration capable of contacting an object.
  • the robot 10 may be able to press the contact portion against an object, or may be capable of being pulled.
  • the contact part may be the surface of an arbitrary part (for example, a body part, an arm part, or a leg part) of the robot 10.
  • the control device includes a server, a general-purpose PC (Personal Computer), a tablet terminal, a game machine, a mobile phone such as a smartphone, a wearable device such as an HMD (Head Mounted Display) or a smart watch, an in-vehicle device (car navigation device) Or another robot (for example, a humanoid robot or a drone).
  • a server a general-purpose PC (Personal Computer)
  • a tablet terminal a game machine
  • a mobile phone such as a smartphone
  • a wearable device such as an HMD (Head Mounted Display) or a smart watch
  • an in-vehicle device car navigation device
  • another robot for example, a humanoid robot or a drone.
  • control device can control the behavior of the robot 10 via the predetermined network. For example, the control device first receives the sensing result by the tactile sensor 106 and the sensing result by the force sensor 108 from the robot 10, and the grip unit 104 and the object come into contact based on the sensing results. The contact force at each contact point can be calculated.
  • each step in the above-described processing flow does not necessarily have to be processed in the order described.
  • the steps may be processed by changing the order as appropriate.
  • Each step may be processed in parallel or individually instead of being processed in time series.
  • some of the described steps may be omitted, or another step may be added.
  • a grip control unit for controlling a grip force related to the contact unit A control device comprising: (2) The contact portion is a gripping portion; The grip control unit is specified from a sensing result by the tactile sensor, information on individual contact points when the grip unit and the object are in contact at one or more points, and a sensing result by the force sensor.
  • the control device is configured to calculate the individual contact based on information on the individual contact points and a resultant force of the contact force between the grip unit and the object specified from a sensing result of the force sensor.
  • the control device according to (4) or (5), wherein the gripping force of the gripping portion is controlled according to a contact force at a point.
  • An actuator is connected to the grip part, or the grip part includes an actuator,
  • the grip control unit has one or more of the grip unit and the object calculated based on information on the individual contact points and a generated force of the actuator specified from a sensing result by the force sensor.
  • the control device according to (4) or (5), wherein the gripping force of the gripping portion is controlled according to a contact force at each contact point when contacting at a point.
  • a control device according to claim 1.
  • the control device further including a slip detection unit that detects a slip amount of the object with respect to the grip unit based on a sensing result by the tactile sensor.
  • the control device according to (10), wherein the slip detection unit further detects a slip amount of the object with respect to the grip unit based on a sensing result by the force sensor. (12) Further, the slip detection unit determines whether or not to detect a slip amount of the object with respect to the grip part based on whether or not contact between the grip part and the object is detected. Or the control apparatus as described in (11). (13) The grip control unit controls the grip force of the grip unit according to the contact force at each contact point calculated by the contact force calculation unit and the slip amount detected by the slip detection unit. The control device according to any one of (9) to (12).
  • the grip control unit further controls the grip force of the grip unit according to an upper limit value of a contact force at the time of contact between the grip unit and the object specified by a user. Control device. (15) The grip control unit further controls the grip force of the grip portion according to a target value of a contact force of the grip portion with respect to the object specified by a user, according to (13) or (14). Control device. (16) The grip control unit further determines the gripping force of the gripper according to information indicating a relationship between the state of the object and the gripping force of the gripper when the gripper grips the object in the past. The control device according to any one of (13) to (15), which is controlled.
  • the grip control unit further controls the grip force of the grip portion according to a recognition result of the state of the object while the grip portion is in contact with the object. (13) to (16) The control device according to any one of the above. (18) The grip control unit further switches a type of control performed on the grip unit or a control parameter related to the grip unit according to whether or not contact between the grip unit and the object is detected. (13) The control device according to any one of (17). (19) Based on the sensing result by the tactile sensor arranged in the contact part and the sensing result by the force sensor arranged in the contact part, the processor according to the contact force when the contact part and the object contact each other Controlling the gripping force associated with the contact portion; Including a control method.
  • a grip control unit for controlling a grip force related to the contact unit Program to function as.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

【課題】接触部と物体とが接触した際の把持力を適切に制御することが可能な、制御装置、制御方法、および、プログラムを提案する。 【解決手段】接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、を備える、制御装置。

Description

制御装置、制御方法、および、プログラム
 本開示は、制御装置、制御方法、および、プログラムに関する。
 従来、物体を把持するための構造(例えばロボットハンドやグリッパーなど)を有する機械が各種提案されている。
 例えば、下記特許文献1には、ロボットハンドの所定の関節部に配置されている複数の圧力検出素子を用いて、物体との接触を検出する技術が記載されている。
特開2009-66714号公報
 しかしながら、特許文献1に記載の技術では、圧力検出素子によるセンシング結果のみを用いて、ロボットハンドと物体との接触時の接触力を算出する。このため、特許文献1に記載の技術では、当該接触力の算出の精度に関して改善の余地がある。
 そこで、本開示では、接触部と物体とが接触した際の把持力を適切に制御することが可能な、新規かつ改良された制御装置、制御方法、および、プログラムを提案する。
 本開示によれば、接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、を備える、制御装置が提供される。
 また、本開示によれば、接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、プロセッサが、前記接触部に関連する把持力を制御すること、を含む、制御方法が提供される。
 また、本開示によれば、コンピュータを、接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、接触部と物体とが接触した際の把持力を適切に制御することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の第1の実施形態に係るロボット10の物理構成の例を示した図である。 第1の実施形態に係るロボット10の機能構成の例を示したブロック図である。 第1の実施形態に係る接触力特定部110の詳細な構成の一例を示したブロック図である。 第1の実施形態に係る処理の流れの例を示したフローチャートである。 本開示の第2の実施形態に係るロボット10の機能構成の例を示したブロック図である。 本開示の第3の実施形態に係るロボット10の機能構成の例を示したブロック図である。 本開示の第4の実施形態に係るロボット10の機能構成の例を示したブロック図である。 本開示の第5の実施形態に係るロボット10の機能構成の例を示したブロック図である。 本開示の第6の実施形態に係るロボット10の機能構成の例を示したブロック図である。 本開示の第7の実施形態に係るロボット10の機能構成の例を示したブロック図である。 本開示の第8の実施形態に係るロボット10の機能構成の例を示したブロック図である。 本開示の第9の実施形態に係るロボット10の機能構成の例を示したブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成要素を、必要に応じて把持部104aおよび把持部104bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、把持部104aおよび把持部104bを特に区別する必要が無い場合には、単に把持部104と称する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.背景
 2.第1の実施形態
 3.第2の実施形態
 4.第3の実施形態
 5.第4の実施形態
 6.第5の実施形態
 7.第6の実施形態
 8.第7の実施形態
 9.第8の実施形態
 10.第9の実施形態
 11.変形例
<<1.背景>>
 本開示は、一例として「2.第1の実施形態」~「10.第9の実施形態」において詳細に説明するように、多様な形態で実施され得る。まず、本開示の特徴を明確に示すために、本開示の各実施形態に係るロボット10を創作するに至った背景について説明する。
 従来、ハンド部(例えば、ロボットハンドやグリッパーなど)を用いて物体を把持する技術が各種提案されている。このような技術では、ハンド部が物体を把持する際の把持力が適切に設定される必要がある。例えば、物体を滑り落とさず、かつ、当該物体を握りつぶさない範囲内の力が把持力として設定される必要がある。
 なお、工場の組み立てラインなどで扱われる物体は、例えば、形状、質量、および、摩擦係数などが既知である場合が多いので、通常、当該物体に応じた適切な把持力を設定することが容易な場合が多い。一方で、例えば家庭や病院などの任意の環境内に位置する多種多様な物体に関しては、通常、個々の物体の形状、質量、または、摩擦係数が未知である場合が多いので、適切な把持力を設定することが困難である。
 この課題を解決するために、例えば、圧力分布センサをハンド部の先端(指先)に配置し、そして、把持対象の物体と当該指先との相対的なズレ(以下では「滑り」とも称する)が発生した際に変化するCoP(Center Of Pressure)を計測し、そして、当該計測結果に基づいて把持力を増大させる技術が提案されている。
 しかしながら、圧力分布センサの特性上、接触の状態やセンサの精度、空間分解能、および、ダイナミックレンジなどに制約があるので、この技術では、接触力の算出の精度が低い。そして、接触力の算出の精度が低いので、この技術では、滑りに関しても正確に検出し難い。
 そこで、上記事情を一着眼点にして、各実施形態に係るロボット10を創作するに至った。各実施形態に係るロボット10は、把持部104に配置されている触覚センサ106によるセンシング結果と、把持部104に配置されている力覚センサ108によるセンシング結果とに基づいて、把持部104と物体とが接触した際の接触力を算出する。このように各実施形態によれば、触覚センサ106によるセンシング結果と、力覚センサ108によるセンシング結果との両方を用いるので、把持部104と物体との接触時の接触力をより精度高く算出することができる。
 各実施形態に係るロボット10は、本開示に係る制御装置の一例である。各実施形態において、ロボット10は、電気的および/または磁気的な作用を用いて行動(例えば把持など)可能な装置(機械)であり得る。例えば、ロボット10は、移動式または固定式のマニピュレーション装置であってもよい。または、ロボット10は、ヒューマノイドロボット、ペットロボット、各種の産業用機械、乗り物(例えば、自動運転車、船舶、または、飛行体(例えばドローンなど))、または、玩具などであってもよい。以下、各実施形態の内容について順次詳細に説明する。
<<2.第1の実施形態>>
 <2-1.物理構成>
 次に、本開示に係る第1の実施形態について説明する。まず、第1の実施形態に係るロボット10の物理構成について、図1を参照して説明する。
 図1に示したように、ロボット10は、少なくとも一つの把持部104と、把持部104を駆動するアクチュエータ130とを有し得る。また、図1に示したように、把持部104の表面の全体または一部には触覚センサ106が配置され得る。さらに、例えばアクチュエータ130の配置領域内に力覚センサ108が配置され得る。
 {2-1-1.把持部104}
 把持部104は、本開示に係る接触部の一例である。把持部104は、外部の物体(図1に示した例では物体20)を把持可能な構造を有する。図1に示した例では、把持部104がロボット指である例を示しているが、第1の実施形態はかかる例に限定されない。物体を把持可能な構造であれば、把持部104の構造は特に限定されない。例えば、ロボット10は、一以上のロボットアーム(図示省略)を有してもよい。この場合、把持部104は、ハンド部(例えばロボットハンド、グリッパー、または、エンドエフェクターなど)として、当該ロボットアームの先端に配置されていてもよい。または、ロボット10は、複数の脚部を有してもよい。この場合、把持部104は、当該複数の脚部のうちの一つの先端部(例えば足部など)として配置されていてもよい。
 {2-1-2.触覚センサ106}
 触覚センサ106は、物体との接触時に、当該物体との接触位置(例えば接触中心位置など)、および、個々の接触点(以下では、接触箇所と称する場合もある)の総数を測定可能なように構成され得る。例えば、触覚センサ106は、圧力分布センサ、1軸力センサアレイ、3軸力センサアレイ、Visionセンサ、または、レーザーを用いたセンサなどであってよい。ここで、圧力分布センサは、複数の圧力検出素子がArray上に配置されているセンサであり得る。そして、圧力分布センサは、当該複数の圧力検出素子の各々にかかる圧力を検出することにより、物体との接触をセンシングし得る。また、Visionセンサは、物体との接触により発生するセンサ表面の材料の変形をカメラにて計測することにより物体との接触をセンシングし得る。また、レーザーを用いたセンサは、センサ表面と物体との接触の有無を、レーザーを用いることによりセンシングし得る。
 この触覚センサ106は、各接触点間の接触力強度比をさらに計測可能であってもよい。ここで、接触力は、物体と接触した点で発生する力であり得る。または、触覚センサ106は、各接触点における法線力、および/または、各接触点におけるせん断力の絶対値をさらに計測可能であってもよい。
 さらに、触覚センサ106は、センシング結果(例えば、接触点の総数、各接触点の位置情報、および、各接触点間の接触力強度比など)を接触力特定部110および滑り検出部112へ伝達し得る。
 {2-1-3.力覚センサ108}
 力覚センサ108は、物体と把持部104とが接触した際の、把持部104の表面に付加される接触力(換言すれば、当該物体からの反力)の合力を測定可能なように構成され得る。または、力覚センサ108は、アクチュエータ130が発生する力、トルク、または、モーメントを測定可能なように構成されていてもよい。
 例えば、力覚センサ108は、3軸力センサ、または、6軸力センサであってもよい。または、アクチュエータ130内にトルクセンサが配置されていてもよく、かつ、力覚センサ108は、当該トルクセンサであってもよい。この場合、力覚センサ108は、アクチュエータ130が発生するトルクを(アクチュエータ130の発生力として)測定し得る。
 さらに、力覚センサ108は、センシング結果(力、トルク、または、モーメント)を接触力特定部110および把持制御部100へ伝達し得る。
 {2-1-4.アクチュエータ130}
 アクチュエータ130は、後述する把持制御部100の制御に従って、目標指令値に対応する力(またはトルク)を発生し得る。発生された力が把持部104に伝達されることにより、把持部104は動作し得る。例えば、把持部104が目標の把持力(換言すれば、アクチュエータ130が発生すべき力、モーメント、または、トルク)を発生可能なように、アクチュエータ130は、把持制御部100の制御に従って駆動する。
 このアクチュエータ130は、図1に示したように、把持部104とロボット10の本体部(図示省略)との間に配置され得る。例えば、把持部104に連結するロボットアームをロボット10が有する場合には、アクチュエータ130は、当該ロボットアーム内に配置されていてもよい。
 <2-2.機能構成>
 以上、第1の実施形態に係るロボット10の物理構成について説明した。次に、第1の実施形態に係るロボット10の機能構成について、図2を参照して説明する。図2は、第1の実施形態に係るロボット10の機能構成の一例を示したブロック図である。図2に示したように、ロボット10は、把持制御部100、把持部104、触覚センサ106、力覚センサ108、接触力特定部110、および、滑り検出部112を有する。以下では、上記の説明と重複する内容については説明を省略する。
 {2-2-1.接触力特定部110}
 接触力特定部110は、本開示に係る接触力算出部の一例である。接触力特定部110は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの処理回路を含んで構成され得る。さらに、接触力特定部110は、ROM(Read Only Memory)やRAM(Random Access Memory)などのメモリを含んで構成されてもよい。
 接触力特定部110は、触覚センサ106によるセンシング結果と、力覚センサ108によるセンシング結果とに基づいて、把持部104と物体とが接触した際の接触力を算出する。例えば、接触力特定部110は、把持部104と物体とが一以上の点において接触した際に、触覚センサ106によるセンシング結果から特定される、個々の接触点に関する情報と、力覚センサ108によるセンシング結果とに基づいて、当該個々の接触点における接触力をそれぞれ算出する。後述するように、当該個々の接触点に関する情報は、例えば、接触点の総数、当該個々の接触点の位置情報、および、当該個々の接触点間の接触強度比を含む。
 ここで、図3を参照して、接触力特定部110のより詳細な構成について説明する。図3は、接触力特定部110のより詳細な構成の一例を示したブロック図である。図3に示したように、接触力特定部110は、接触箇所数算出部150、接触位置算出部152、接触強度算出部154、および、接触力算出部156を有し得る。
 {2-2-2.接触箇所数算出部150}
 接触箇所数算出部150は、把持部104と物体とが一以上の点において接触したことが検出された際に、触覚センサ106によるセンシング結果に基づいて接触点(接触箇所)の総数を算出する。この際、例えば、接触箇所数算出部150は、触覚センサ106の種類に対応する算出方法と、触覚センサ106によるセンシング結果とに基づいて接触点の総数を算出する。
 一例として、触覚センサ106が圧力分布センサを含んで構成されている場合には、接触箇所数算出部150は、まず、触覚センサ106によりセンシングされた圧力の極大点の数を特定(算出)したり、または、圧力分布の勾配が「0」に近づく個々の点を特定したりする。そして、接触箇所数算出部150は、これらの特定結果に基づいて接触点の総数を算出する。
 または、触覚センサ106がVisionセンサを含んで構成されている場合には、接触箇所数算出部150は、まず、把持部104と物体との接触に基づく触覚センサ106の表面の変形量の変化を、触覚センサ106によるセンシング結果に基づいて特定する。そして、接触箇所数算出部150は、この特定結果に基づいて接触点の総数を算出する。
 {2-2-3.接触位置算出部152}
 接触位置算出部152は、該当の全ての接触点の各々(以下では「各接触点」と称する場合がある)の位置関係を、触覚センサ106によるセンシング結果に基づいて特定する。例えば、接触位置算出部152は、各接触点の位置情報(例えば、各接触点の中心位置の位置情報など)を、触覚センサ106によるセンシング結果に基づいて特定する。一例として、接触位置算出部152は、当該各接触点に関して、触覚センサ106上の当該接触点の相対位置の情報を当該接触点の位置情報として、触覚センサ106によるセンシング結果に基づいて特定する。ここで、各接触点の相対位置の情報は、触覚センサ106の端点を原点とした座標の形で表現されてもよい。但し、かかる例に限定されず、各接触点の相対位置の情報は、アクチュエータ130が発生するトルクまたはモーメントを算出可能な任意の他の位置を基準とした相対位置の情報と定められてもよい。
 {2-2-4.接触強度算出部154}
 接触強度算出部154は、該当の各接触点間の接触力強度比(例えば、ある接触点の接触強度を基準とした他の接触点の各々の接触強度比)を、触覚センサ106によるセンシング結果に基づいて算出する。このような算出方法のメリットとして以下が挙げられる。例えば、全体的にある係数分のゲインがかかるような誤差が所定のセンシング結果に含まれる場合(例えば温度特定等)では、各接触点間の接触力強度比を用いることによって当該ゲイン分が相殺され得るので、誤差の影響を最小限に抑えることができる。
 {2-2-5.接触力算出部156}
 接触力算出部156は、接触箇所数算出部150により算出された接触点の総数と、接触位置算出部152により特定された各接触点の位置情報と、接触強度算出部154により算出された各接触点間の接触力強度比と、力覚センサ108によるセンシング結果とに基づいて、各接触点における接触力をそれぞれ算出する。例えば、接触力算出部156は、把持部104と物体との接触力の合力(つまり、各接触点における接触力の合力)が特定可能であるか否かの判定結果に基づいて、接触箇所数算出部150による算出結果、接触位置算出部152による算出結果、および、接触強度算出部154による算出結果を用いて各接触点における接触力をそれぞれ算出する。
 (2-2-5-1.算出例1)
 一例として、把持部104と物体との接触力の合力が、力覚センサ108によるセンシング結果に基づいて特定可能である場合には、接触力算出部156は、以下の算出方法を用いて各接触点における接触力をそれぞれ算出する。なお、このような場合の具体例としては、力覚センサ108が3軸力センサを含んで構成されており、かつ、把持部104における物体を把持する面の反対側に当該3軸力センサが配置されている場合などが挙げられる。
 ‐接触点数が1つの場合
 例えば、まず、接触力算出部156は、接触箇所数算出部150により算出された接触点の総数が1つ、2つ、または、3以上のいずれであるかを判定する。そして、当該接触点の総数が1つである場合には、接触力算出部156は、力覚センサ108によりセンシングされた合力自体を、該当の接触点における接触力として算出する。
 ‐接触点数が2つの場合
 また、当該接触点の総数が2つである場合には、接触力算出部156は、まず、接触位置算出部152により特定された各接触点の位置情報に基づいて、所定の基準位置(例えば触覚センサ106の端点など)からの各接触点までの距離l1、および、l2を算出する。ここで、各接触点における接触力をF1およびF2、力覚センサ108によりセンシングされた接触力の合力をFallとそれぞれ定める。この場合、接触力算出部156は、以下の数式(1)および(2)から、F1およびF2をそれぞれ求める。
Figure JPOXMLDOC01-appb-M000001
 なお、Fall、F1、および、F2の関係は、以下の数式(3)のような関係になり得る。
Figure JPOXMLDOC01-appb-M000002
 ‐接触点数が3以上の場合
 次に、当該接触点の総数が3以上である場合における各接触点における接触力の算出方法について説明する。今、接触点の総数をN、各接触点における接触力をFi(i=1~N)、接触強度算出部154により算出された各接触点間の接触力強度比をαi(i=1~N)、力覚センサ108によりセンシングされた接触力の合力をFallとそれぞれ定める。この場合、接触力算出部156は、以下の数式(4)を用いて、Fiをそれぞれ算出する。
Figure JPOXMLDOC01-appb-M000003
 なお、FallおよびFiの関係は、以下の数式(5)のような関係になり得る。
Figure JPOXMLDOC01-appb-M000004
 (2-2-5-2.算出例2)
 次に、把持部104と物体との接触力の合力が特定不能であり、かつ、アクチュエータ130の発生力(以下では、「τ」と記載する場合がある)を力覚センサ108により測定可能である場合における、接触力算出部156による接触力の算出方法について説明する。なお、このような場合の具体例としては、力覚センサ108がトルクセンサを含んで構成されており、かつ、アクチュエータ130内に当該トルクセンサが配置されている場合などが挙げられる。
 ‐接触点数が1つの場合
 この場合、接触力算出部156は、例えば以下の算出方法を用いて各接触点における接触力をそれぞれ算出する。まず、接触力算出部156は、接触箇所数算出部150により算出された接触点の総数が1つ、または、2以上のいずれであるかを判定する。そして、当該接触点の総数が1つである場合には、接触力算出部156は、まず、接触位置算出部152により特定された各接触点の位置情報に基づいて、所定の基準位置(例えば触覚センサ106の端点など)からの該当の接触点までの距離l1を算出する。そして、接触力算出部156は、力覚センサ108によりセンシングされたアクチュエータ130の発生力(つまりτ)と、l1と、以下の数式(6)とを用いることにより、該当の接触点における接触力(F1)を算出する。
Figure JPOXMLDOC01-appb-M000005
 ‐接触点数が2以上の場合
 次に、当該接触点の総数が2以上である場合における各接触点における接触力の算出方法について説明する。今、接触点の総数をN、各接触点における接触力をFi(i=1~N)、接触強度算出部154により算出された各接触点間の接触力強度比をαi(i=1~N)、所定の基準位置(例えば触覚センサ106の端点など)からの各接触点までの距離をli(i=1~N)、力覚センサ108によりセンシングされたアクチュエータ130の発生力をτとそれぞれ定める。この場合、接触力算出部156は、以下の数式(7)を用いて、Fiをそれぞれ算出する。
Figure JPOXMLDOC01-appb-M000006
 なお、τおよびFiの関係は、以下の数式(8)のような関係である。
Figure JPOXMLDOC01-appb-M000007
 (2-2-5-3.算出結果の伝達)
 さらに、接触力算出部156は、算出した各接触点における接触力を把持制御部100へ伝達し得る。
 {2-2-6.滑り検出部112}
 滑り検出部112は、上記の処理回路を含んで構成され得る。また、滑り検出部112は、上記のメモリをさらに含んで構成されてもよい。滑り検出部112は、触覚センサ106によるセンシング結果に基づいて、把持部104と物体とが接触している間の、把持部104に対する当該物体の滑り量を検出する。例えば、滑り検出部112は、接触力特定部110により算出された個々の接触点における接触力と、触覚センサ106によるセンシング結果とに基づいて、当該物体の滑り量を検出する。
 ここで、各実施形態において、「滑り」は、把持部104の表面と物体との相対運動(相対的なずれ)、および、当該相対運動が発生する前兆の現象を意味し得る。当該前兆の現象は、例えば、把持部104における当該物体との接触面の一部が滑る、または、剥離する現象(局所滑りと称する場合もある)である。例えば、滑り検出部112は、CoP移動の検出結果、接触領域の面積の変化の検出結果、または、接触位置の変化の検出結果などに基づいて、当該物体の滑り量(例えば当該前兆の現象など)を検出してもよい。
 また、滑り検出部112は、検出結果(例えば、滑り量の検出結果、滑りの有無の検出結果、および/または、滑り依存変化量など)を把持制御部100へ伝達し得る。
 {2-2-7.把持制御部100}
 把持制御部100は、上記の処理回路を含んで構成され得る。また、把持制御部100は、上記のメモリをさらに含んで構成されてもよい。また、図2に示したように、把持制御部100は、把持力算出部102を有する。
 把持制御部100は、後述する把持力算出部102により算出された目標の把持力(つまり、把持部104が当該物体を把持する力)に基づいて、把持部104の動きを制御する。例えば、把持制御部100は、把持部104の現在の把持力から、把持力算出部102により算出された目標の把持力へ近づけるように、アクチュエータ130の駆動を制御する。
 また、把持制御部100は、力覚センサ108から逐次取得されるセンシング結果に基づいて、把持部104に対して公知のフィードバック制御を行い得る。
 {2-2-8.把持力算出部102}
 把持力算出部102は、接触力特定部110により算出された個々の接触点における接触力と、滑り検出部112により検出された把持対象の物体の滑り量とに基づいて、把持部104の目標の把持力を算出する。
 例えば、滑りの発生が滑り検出部112により検出された場合には、把持力算出部102は、滑り検出部112により検出された滑り量に応じた、把持部104の現在の把持力よりも大きい値を目標の把持力として算出する。また、発生中の滑りが止まったことが滑り検出部112により検出された場合には、把持力算出部102は、把持部104の把持力が徐々に低下するように(現在以降の)把持部104の目標の把持力を算出する。
 <2-3.処理の流れ>
 以上、第1の実施形態に係るロボット10の機能構成について説明した。次に、第1の実施形態に係る処理の流れについて、図4を参照して説明する。図4は、第1の実施形態に係る処理の流れの一例を示したフローチャートである。以下では、ロボット10が対象の物体を把持する場面における処理の流れの例について説明する。
 図4に示したように、まず、ロボット10の接触力特定部110は、把持部104が対象の物体と接触したか否かを、触覚センサ106によるセンシング結果に基づいて検出する(S101)。把持部104が対象の物体と接触していない場合は(S101:No)、接触力特定部110は、例えば所定の時間の経過後にS101の処理を繰り返す。
 一方、把持部104が対象の物体と接触したことが検出された際には(S101:Yes)、接触力特定部110は、把持部104と当該物体との接触点の総数、各接触点の位置情報、および、各接触点間の接触強度比を触覚センサ106によるセンシング結果に基づいてそれぞれ算出する(S103)。
 続いて、接触力特定部110は、S103における算出結果と、力覚センサ108によるセンシング結果(例えば直近のS101時点におけるセンシング結果)とに基づいて、各接触点における接触力をそれぞれ算出する(S105)。
 続いて、滑り検出部112は、S105で算出された各接触点における接触力と、触覚センサ106によるセンシング結果(例えば直近のS101時点におけるセンシング結果)とに基づいて、把持部104に対する当該物体の滑り量を検出する(S107)。
 続いて、把持力算出部102は、S105で算出された各接触点における接触力と、S107で検出された当該物体の滑り量とに基づいて、把持部104の目標の把持力を算出する。例えば、把持力算出部102は、各接触点における接触力と、検出された当該物体の滑り量とに基づいて、把持部104の把持力が目標の把持力に達するように、アクチュエータ130が発生すべき力を算出する(S109)。
 その後、把持制御部100は、S109で算出された目標の把持力(または、アクチュエータ130が発生すべき力)に基づいて、アクチュエータ130の駆動を制御する(S111)。
 <2-4.効果>
 {2-4-1.効果1}
 以上説明したように、第1の実施形態に係るロボット10は、把持部104に配置されている触覚センサ106によるセンシング結果と、把持部104に配置されている力覚センサ108によるセンシング結果とに基づいて、把持部104と物体とが接触した際の接触力を算出する。このように第1の実施形態によれば、触覚センサ106によるセンシング結果と、力覚センサ108によるセンシング結果との両方を用いるので、把持部104と物体との接触時の接触力をより精度高く算出することができる。例えば、把持部104と物体とが複数の接触点において接触した際の各接触点における接触力をより精度高く算出することができる。また、触覚センサ106のセンサ方式や配置に応じて、接触力の算出アルゴリズムをロバストに変更することも可能である。
 {2-4-2.効果2}
 さらに、第1の実施形態によれば、把持部104と物体との接触時の接触力を精度高く算出することができるので、把持部104に対する当該物体の滑り量をより精度高く検出することができる。例えば、接触力の大きさに応じて変動するような滑りをより精度高く検出することができる。そして、滑りの検出の精度が向上することにより、把持部104は、より小さい力で物体を把持することができるようになる。例えば柔軟な物体や壊れやすい物体などの、把持対象の物体からの反力が小さい場合であっても、把持部104は、該当の物体を安全に把持することができる。
 {2-4-3.効果3}
 また、把持部104と物体との接触時の接触力を精度高く算出することができるので、把持部104と物体との接触タイミングも、より正確に検出することができる。例えば、第1の実施形態によれば、触覚センサ106によるセンシング結果だけでなく、力覚センサ108によるセンシング結果を同時に使用するので、既存の技術と比較して接触感度(例えば、把持部104の先端(例えば指先)の接触感度など)が向上し得る。これにより、接触タイミングをより正確に検出することができる。
 その結果、以下の3点の効果が得られる。第1に、把持部104は、該当の物体をより適切に把持することが可能になる。第2に、例えば滑り検出部112による滑り検出処理の開始タイミングを柔軟に調整することが可能となる。その結果、把持部104が物体を把持する期間以外の期間におけるロボット10の処理負荷を軽減させることも可能となる。
 第3に、接触タイミングをより正確に検出することができるので、接触タイミングにおいてロボット10が制御を切り替えるような場面において、より正確なタイミングに制御を切り替えることができる。例えば、制御方式やパラメータ(例えば速度や力の目標値など)を接触タイミングにおいて変更するような場面(例えば、接触タイミングにおいて把持部104の開閉動作を一時停止するなど)において、ロボット10は、より正確なタイミングにこれらを変更することができる。このため、既存の技術と比較して、様々な状況に幅広く、かつ、より適切に対応可能になる。例えば、ロボット10は、物体を倒したり、移動させたりすることなく、当該物体を安全に把持することができる。また、人間や他のロボットから直接手渡しされた物体を把持するタスクを実行する場面などにおいて、把持タイミングをより適切に設定することができるので、ロボット10は、より適切にタスクを実行することができる。
 {2-4-4.効果4}
 また、第1の実施形態によれば、多点接触時であっても接触力をより正確に算出することができる。その結果、以下の3点の効果が得られる。第1に、把持対象の物体の形状が複雑な形状であっても、当該物体を破壊することなく、安全に把持することができる。第2に、把持対象の物体の形状が複雑な形状であっても当該物体の滑り量を適切に検出することができる。このため、ロボット10は、当該物体を滑り落とすことなく、安全に把持することができる。第3に、該当の全ての接触点のうちの一以上で滑りが発生した場合であっても、当該滑りを精度高く検出することができる。従って、該当の物体をより安全に把持することができる。
 {2-4-5.効果5}
 また、第1の実施形態によれば、例えば圧力分布センサやVisionセンサなどの、多様な種類のセンサを触覚センサ106として用いることができ、センサ方式の選択の幅が広い。このため、ロボット10の形態や、ロボット10に搭載されるセンサの形態に応じた適切な処理方法を選択可能である。
 {2-4-6.効果6}
 また、第1の実施形態によれば、触覚センサ106によりセンシング可能なエリア内であれば当該エリア内の任意の位置で物体が接触した場合であっても、各接触点における接触力を算出することができる。このため、把持部104が物体を把持する際に位置調整が不要になり得る。その結果、以下の3点の効果が得られる。第1に、対象の物体をより迅速に把持できるようになる。第2に、位置調整のためのセンサ(例えばカメラなど)をロボット10に追加搭載する必要がない。第3に、把持部104を支持する構造体の撓みなどによる誤差の許容範囲を、より大きくすることができる。このため、該当の構造体の強度を低下させることも可能となるので、ロボット10の軽量化や低コスト化が可能となる。
<<3.第2の実施形態>>
 以上、第1の実施形態について説明した。次に、本開示に係る第2の実施形態について説明する。後述するように、第2の実施形態によれば、把持部104と物体との接触力の上限値をユーザーが指定することができる。なお、第2の実施形態に係るロボット10の物理構成は、図1に示した第1の実施形態と同様であってよい。また、後述する第3の実施形態~第9の実施形態に関しても、ロボット10の物理構成は、第1の実施形態と同様であってよい。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
 <3-1.機能構成>
 次に、第2の実施形態に係るロボット10の機能構成について、図5を参照して説明する。図5は、第2の実施形態に係るロボット10の機能構成の例を示したブロック図である。図5に示したように、第2の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、接触力閾値記憶部200をさらに有する。
 {3-1-1.接触力閾値記憶部200}
 接触力閾値記憶部200は、ユーザーにより予め指定された、把持部104と物体との接触時の接触力の上限値(以下では、「接触力の上限指定値」と称する)を記憶する。この接触力の上限指定値は、把持対象の物体の種類に依存しない、同一の値であり得る。
 {3-1-2.把持力算出部102}
 第2の実施形態に係る把持力算出部102は、接触力閾値記憶部200に記憶されている、接触力の上限指定値に基づいて、(現在以降の)把持部104の目標の把持力を算出する。例えば、把持力算出部102は、把持部104と物体との各接触点における接触力が、接触力閾値記憶部200に記憶されている、接触力の上限指定値以下になるように、アクチュエータ130が発生すべき力の上限値を算出する。
 <3-2.効果>
 以上説明したように、第2の実施形態によれば、把持部104と物体との接触力の上限値をユーザーが指定することができる。このため、ロボット10は、接触力が過大にならないように制御することができるので、例えば柔軟な物体や壊れやすい物体であっても、安全に把持することができる。さらに、ロボット10に実装されているアプリケーションや、その場の状況に応じて、把持強度を変更することができる。
 なお、把持部104の把持強度を指定可能なユーザーインターフェースとロボット10とが例えば所定のネットワーク(インターネットや公衆網など)を介して連携可能なように構成されることが望ましい。かかる構成によれば、ユーザーは、所望の把持強度をより容易に指定することができる。
<<4.第3の実施形態>>
 以上、第2の実施形態について説明した。次に、本開示に係る第3の実施形態について説明する。後述するように、第3の実施形態によれば、把持部104と物体との接触力の上限値を物体の種類ごとに適切に指定することができる。以下では、第2の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
 <4-1.機能構成>
 図6は、第3の実施形態に係るロボット10の機能構成の例を示したブロック図である。図6に示したように、第3の実施形態に係るロボット10は、図5に示した第2の実施形態と比較して、物体認識部202をさらに有する。
 {4-1-1.物体認識部202}
 物体認識部202は、物体認識用のセンサ(例えばイメージセンサ(カメラ)や赤外線センサなど)を含んで構成され得る。物体認識部202は、ロボット10の周辺(例えば把持部104の可動範囲内など)に位置する各物体をセンシングし、そして、当該センシング結果に基づいて各物体の種類を認識する。
 {4-1-2.接触力閾値記憶部200}
 第3の実施形態に係る接触力閾値記憶部200は、例えばユーザーにより予め指定された、物体の種類ごとの、把持部104と当該物体との接触力の上限値を記憶する。
 {4-1-3.把持力算出部102}
 第3の実施形態に係る把持力算出部102は、物体認識部202により認識された、把持対象の物体の種類と、接触力閾値記憶部200に記憶されている該当の物体の接触力の上限値とに基づいて、把持部104の目標の把持力(または、アクチュエータ130が発生すべき力の上限値)を算出する。
 <4-2.効果>
 以上説明したように、第3の実施形態によれば、把持部104と物体との接触力の上限値を物体の種類ごとに適切に指定することができる。このため、ロボット10は、把持対象の物体の種類に応じた適切な力で当該物体を把持することができるので、より安全に把持することができる。また、第3の実施形態によれば、ユーザーは、接触力の上限値を、その都度指定する必要がなく、操作回数を削減することができる。
<<5.第4の実施形態>>
 以上、第3の実施形態について説明した。次に、本開示に係る第4の実施形態について説明する。後述するように、第4の実施形態によれば、過去の把持経験に応じて、把持部104と物体との接触力の上限値を適切に指定することができる。以下では、第3の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
 <5-1.機能構成>
 図7は、第4の実施形態に係るロボット10の機能構成の例を示したブロック図である。図7に示したように、第4の実施形態に係るロボット10は、図6に示した第3の実施形態と比較して、接触力上限特定部204をさらに有する。
 {5-1-1.接触力閾値記憶部200}
 第4の実施形態に係る接触力閾値記憶部200は、過去の把持時に物体認識部202により認識された該当の物体の種類と、当該把持時における該当の物体の状態(例えば破壊されたか否かなど)と、当該把持時における把持部104の把持力とを関連付けて記憶し得る。
 さらに、物体の種類ごとに、把持部104と当該物体との接触時に当該物体が破壊されない範囲内の接触力の上限値が、これらの情報に基づいて予め特定され得る。この場合、接触力閾値記憶部200は、物体の種類ごとの当該物体が破壊されない範囲内の接触力の上限値をさらに記憶していてもよい。
 {5-1-2.接触力上限特定部204}
 接触力上限特定部204は、物体認識部202により認識された、把持対象の物体の種類と、接触力閾値記憶部200に記憶されている情報とに基づいて、当該把持対象の物体が破壊されない範囲内の接触力の上限値を特定する。
 {5-1-3.把持力算出部102}
 第4の実施形態に係る把持力算出部102は、接触力上限特定部204により特定された接触力の上限値と、接触力特定部110により特定された各接触点における接触力とに基づいて、把持部104の目標の把持力(または、アクチュエータ130が発生すべき力の上限値)を算出する。
 <5-2.効果>
 {5-2-1.効果1}
 以上説明したように、第4の実施形態によれば、過去の把持経験に応じて、把持部104と物体との接触力の上限値を適切に指定することができる。例えば、ロボット10は、把持対象の物体の過去の把持成功時の接触力の上限値を、把持部104と当該物体との接触力の上限値として設定することができる。このため、ロボット10は、各物体をより確実に把持することができる。また、ロボット10は、物体を把持している間に、当該物体の把持可能性を判定することができる。例えば、当該物体の接触力の上限値を付加した場合であっても滑りが止まらないことが検出された場合には、ロボット10は、当該物体の摩擦係数が小さすぎるので当該物体の把持は不可能、または、困難であると判断することができる。
 {5-2-2.効果2}
 また、第4の実施形態によれば、接触力の上限値を定めるために人的作業が不要になる。例えば、接触力の上限値を定めるための調査やデータの収集などをユーザーが行う必要がないので、システムの導入が容易になる。
<<6.第5の実施形態>>
 以上、第4の実施形態について説明した。次に、本開示に係る第5の実施形態について説明する。後述するように、第5の実施形態によれば、把持部104と物体との接触力の上限値、または、接触力の目標値をユーザーが容易に指定することができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
 <6-1.機能構成>
 図8は、第5の実施形態に係るロボット10の機能構成の例を示したブロック図である。図8に示したように、第5の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、入力部206をさらに有する。
 {6-1-1.入力部206}
 入力部206は、入力デバイス(例えばマウス、キーボード、または、タッチパネルなど)を含んで構成されてもよいし、または、音声入力装置(例えばマイクロフォンなど)を含んで構成されてもよい。入力部206は、ロボット10に対するユーザーの各種の入力を受け付ける。
 (6-1-1-1.入力例1)
 例えば、把持部104が物体を把持する前ごとに、入力部206は、ユーザーによる、接触力の上限値の入力を受け付けてもよい。一例として、ユーザーは、接触力の基準値に対する乗数を入力部206に対して入力してもよいし、または、予め準備されている、接触力の複数のレベルのうちのいずれかを入力部206に対して入力してもよい。これらの場合、入力部206に対する入力情報が把持制御部100へ伝達され、そして、把持制御部100は、当該入力情報に基づいて、実際の接触力の上限値を決定してもよい。
 (6-1-1-2.入力例2)
 または、入力部206は、ユーザーによる、接触力の目標値の入力を受け付けてもよい。この場合、把持力算出部102は、把持部104の現在の接触力が、入力された接触力の目標値と同一になるように、アクチュエータ130が発生すべき力(目標値)を算出し得る。
 <6-2.効果>
 {6-2-1.効果1}
 以上説明したように、第5の実施形態によれば、把持部104と物体との接触力の上限値をユーザーが容易に指定することができる。例えば、ユーザーは、接触力の上限値をその都度(例えばリアルタイムに)指定することができる。その結果、ロボット10は、その場の状況変化やアプリケーションの変更に即座、かつ、ロバストに対応することができる。また、ユーザーは、接触力の上限値を直感的に入力することも可能である。
 {6-2-2.効果2}
 また、第5の実施形態によれば、把持部104と物体との接触力の目標値をユーザーが容易に指定することができる。例えば、ユーザーは、当該接触力の目標値をその都度(例えばリアルタイムに)指定することができる。また、物体に対して一定の接触力を付加するようなアプリケーションの利用時に関しても、ユーザーは、所望の接触力を指定することができる。
<<7.第6の実施形態>>
 以上、第5の実施形態について説明した。次に、本開示に係る第6の実施形態について説明する。後述するように、第6の実施形態によれば、把持時の物体の状態に応じて、接触力の上限値を適切に調整することができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
 <7-1.機能構成>
 図9は、第6の実施形態に係るロボット10の機能構成の例を示したブロック図である。図9に示したように、第6の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、接触力上限特定部204、および、把持状態認識部208をさらに有する。
 {7-1-1.把持状態認識部208}
 把持状態認識部208は、把持状態の認識用のセンサ(例えばイメージセンサ(カメラ)や赤外線センサなど)を含んで構成され得る。把持状態認識部208は、把持部104が把持している物体をセンシングし、そして、当該センシング結果に基づいて当該物体の状態(例えば破壊されたか否かや、変形されたか否かなど)を例えばリアルタイムに認識し得る。
 {7-1-2.接触力上限特定部204}
 第6の実施形態に係る接触力上限特定部204は、把持状態認識部208による、対象の物体の状態の認識結果と、接触力特定部110により算出された、把持部104と当該物体との現在の接触力とに基づいて、把持部104と当該物体との接触力の上限値を例えばリアルタイムに算出する。
 <7-2.効果>
 以上説明したように、第6の実施形態によれば、把持中の物体の状態に応じて、接触力の上限値を適切に調整することができる。例えば、事前に予測不可能だった物体の変形や破壊が発生した場合であっても、ロボット10は、接触力の上限値をリアルタイムに調整することにより、これらの事象に対してリアルタイムに対応することができる。
 なお、第6の実施形態に係るロボット10は、把持部104が把持中の物体(または、ロボット10自体)と外部環境(例えば人間や障害物など)とが接触しそうか否かを事前に認識してもよい。この場合、当該物体が当該接触によって滑り落ちる事態を回避するために、ロボット10は、滑り防止動作として、当該認識結果に基づいて接触力を調整してもよい。
<<8.第7の実施形態>>
 以上、第6の実施形態について説明した。次に、本開示に係る第7の実施形態について説明する。後述するように、第7の実施形態によれば、把持部104と物体との接触の検出結果に応じて、滑り検出処理を行うか否かを適切に切り替えることができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
 <8-1.機能構成>
 図10は、第7の実施形態に係るロボット10の機能構成の例を示したブロック図である。図10に示したように、第7の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、接触検出部210をさらに有する。
 {8-1-1.接触検出部210}
 接触検出部210は、接触力特定部110による算出結果に基づいて、把持部104と物体との接触の有無を検出する。また、接触検出部210は、把持部104と物体との接触の開始を検出した際には、滑り検出部112に対して接触トリガを出力し得る。
 {8-1-2.滑り検出部112}
 第7の実施形態に係る滑り検出部112は、接触検出部210による検出結果に基づいて、滑り量の検出処理を行うか否かを決定する。例えば、把持部104と物体との接触が接触検出部210により検出されている間のみ、滑り検出部112は、滑り検出処理を行う。つまり、把持部104と物体との接触が接触検出部210により検出されていない間は、滑り検出部112は、滑り検出処理を行わない。例えば、滑り検出部112から接触トリガを受信した際にのみ、滑り検出部112は、滑り検出処理を開始してもよい。
 <8-2.効果>
 以上説明したように、第7の実施形態によれば、把持部104と物体との接触の検出結果に応じて、滑り検出処理を行うか否かを適切に切り替えることができる。
 一般的に、滑り検出処理では、触覚センサ106全域内の各センサの値を処理する必要があるので、処理負荷が大きい。第7の実施形態によれば、把持部104と物体との接触が検出されている間のみ滑り検出処理を行うことも可能となるので、把持部104と物体との接触が検出されていない間の処理負荷を軽減することができる。その結果、メモリの使用量の削減や消費電力の削減が可能になる。
<<9.第8の実施形態>>
 以上、第7の実施形態について説明した。次に、本開示に係る第8の実施形態について説明する。後述するように、第8の実施形態によれば、把持部104と物体との接触の前後で、実行する制御の種類、または、制御パラメータの値を適切に切り替えることができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
 <9-1.機能構成>
 図11は、第8の実施形態に係るロボット10の機能構成の例を示したブロック図である。図11に示したように、第8の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、接触検出部210および本体制御部212をさらに有する。
 {9-1-1.接触検出部210}
 第8の実施形態に係る接触検出部210は、把持部104と物体との接触の開始を検出した際には、把持制御部100および本体制御部212に対して接触トリガを出力し得る。
 {9-1-2.本体制御部212}
 本体制御部212は、接触検出部210による検出結果に基づいて、ロボット10の本体部(例えば、把持部104以外の部位に含まれる一以上の関節など)の動作を制御する。例えば、本体制御部212は、ロボット10の本体部に対して行う制御の種類、および、ロボット10の本体部に関する制御パラメータの両方またはいずれか一方を、把持部104と物体との接触が接触検出部210により検出されたか否かに応じて切り替える。ここで、当該制御の種類は、例えば、位置制御、または、力制御などを含み得る。また、当該制御パラメータは、例えば、機械インピーダンス、制御ゲイン、位置、力、速度、トルク、または、その他の指令値などを含み得る。また、当該制御パラメータは、これらのパラメータの上限値または下限値をさらに含んでもよい。
 例えば、把持部104と物体との接触が接触検出部210により検出されるまでの間は、本体制御部212は、ロボット10の本体部に対して位置制御のみを行う。そして、接触検出部210による、把持部104と物体との接触の検出以後は、本体制御部212は、ロボット10の本体部に対して位置制御の代わりに力制御を行うように、制御の種類を切り替えてもよい。
 または、把持部104と物体との接触が接触検出部210により検出されるまでの間は、本体制御部212は、ロボット10の本体部に関する制御パラメータの値を変更しない。そして、接触検出部210による、把持部104と物体との接触の検出以後は、本体制御部212は、ロボット10の本体部に関する制御パラメータの値を例えば当該検出結果に応じて切り替えてもよい。例えば、把持部104と物体との接触が検出された際に、本体制御部212は、急激な変化が抑制されながらロボット10の本体部が動くように、ロボット10の本体部に対する制御ゲインを下げてもよい。または、当該接触が検出された際に、本体制御部212は、ロボット10の本体部の動きがより柔軟になるように、ロボット10の本体部の機械インピーダンス設定値を変更してもよい。
 または、本体制御部212は、ロボット10の本体部に対する制御の種類を力制御のまま変更せず、かつ、把持部104と物体との接触タイミングにおいてロボット10の本体部の機械インピーダンス設定(制御パラメータの一例)を変更してもよい。
 {9-1-3.把持制御部100}
 第8の実施形態に係る把持制御部100は、接触検出部210による検出結果に基づいて、把持部104の動作を制御する。例えば、把持制御部100は、把持部104に対して行う制御の種類、および、把持部104に関する制御パラメータの両方またはいずれか一方を、把持部104と物体との接触が接触検出部210により検出されたか否かに応じて切り替える。なお、当該制御の種類、および、当該制御パラメータの具体的な内容は、(本体制御部212に関連して)前述した内容とそれぞれ同様であり得る。
 例えば、把持部104と物体との接触が接触検出部210により検出されるまでの間は、把持制御部100は、把持部104に対して位置制御のみを行う。そして、接触検出部210による、把持部104と物体との接触の検出以後は、把持制御部100は、把持部104に対して位置制御の代わりに力制御を行うように、制御の種類を切り替えてもよい。
 <9-2.効果>
 以上説明したように、第8の実施形態によれば、把持部104と物体との接触の前後で、実行する制御の種類、または、制御パラメータの値を適切に切り替えることができる。
<<10.第9の実施形態>>
 以上、第8の実施形態について説明した。次に、本開示に係る第9の実施形態について説明する。後述するように、第9の実施形態によれば、触覚センサ106によるセンシング結果だけでなく、力覚センサ108によるセンシング結果も同時に用いて、把持部104に対する物体の滑り量を検出することができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
 <10-1.機能構成>
 図12は、第9の実施形態に係るロボット10の機能構成の例を示したブロック図である。図12に示したように、第9の実施形態では、図2に示した第1の実施形態と比較して、力覚センサ108と滑り検出部112とが接続されている点のみ異なる。
 第9の実施形態に係る滑り検出部112は、接触力特定部110により算出された個々の接触点における接触力と、触覚センサ106によるセンシング結果と、力覚センサ108によるセンシング結果とに基づいて、把持部104と物体とが接触している間の当該物体の滑り量を検出する。
<<11.変形例>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 <11-1.変形例1>
 例えば、第8の実施形態に係る本体制御部212は、第8の実施形態に係るロボット10のみが有する例に限定されない。他の任意の実施形態に係るロボット10も、本体制御部212を同様に有してもよい。
 <11-2.変形例2>
 別の変形例として、前述した各実施形態では、本開示に係る接触部が把持部104である例について説明したが、本開示はかかる例に限定されない。例えば、当該接触部は、必ずしも物体を把持可能な構成を有する例に限定されず、物体と接触可能な構成を有していればよい。一例として、ロボット10は、当該接触部を物体に対して押し付け可能であったり、または、引っ張り可能であったりし得る。例えば、当該接触部は、ロボット10が有する任意の部位(例えば胴体部、アーム部、または、脚部など)の表面であってもよい。
 <11-3.変形例3>
 別の変形例として、前述した各実施形態では、本開示に係る制御装置がロボット10である例について説明したが、本開示はかかる例に限定されず、当該制御装置は、ロボット10とは異なる装置であってもよい。例えば、当該制御装置は、サーバ、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、例えばHMD(Head Mounted Display)やスマートウォッチなどのウェアラブルデバイス、車載装置(カーナビゲーション装置など)、または、別のロボット(例えばヒューマノイドロボットやドローンなど)であってもよい。
 この場合、当該制御装置が、上記の所定のネットワークを介してロボット10の行動を制御し得る。例えば、当該制御装置は、まず、触覚センサ106によるセンシング結果と、力覚センサ108によるセンシング結果とをロボット10から受信し、そして、これらのセンシング結果に基づいて、把持部104と物体とが接触した際の各接触点における接触力を算出し得る。
 <11-4.変形例4>
 また、前述した処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されたりしてもよい。
 また、前述した各実施形態によれば、CPU、ROM、およびRAMなどのハードウェアを、前述した各実施形態に係るロボット10の各構成要素(例えば接触力特定部110、滑り検出部112、および、把持制御部100など)と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、当該コンピュータプログラムが記録された記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、
を備える、制御装置。
(2)
 前記接触部は、把持部であり、
 前記把持制御部は、前記触覚センサによるセンシング結果から特定される、前記把持部と前記物体とが一以上の点において接触した際の個々の接触点に関する情報と、前記力覚センサによるセンシング結果とに基づいて算出された前記個々の接触点における接触力に応じて、前記把持部の把持力を制御する、前記(1)に記載の制御装置。
(3)
 前記個々の接触点に関する情報は、前記個々の接触点の総数と、前記個々の接触点の位置関係を示す情報とを含む、前記(2)に記載の制御装置。
(4)
 前記個々の接触点に関する情報は、前記個々の接触点間の接触強度比をさらに含む、前記(3)に記載の制御装置。
(5)
 前記個々の接触点の位置関係を示す情報は、前記把持部内の前記個々の接触点の位置情報を含む、前記(4)に記載の制御装置。
(6)
 前記把持制御部は、前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果から特定される、前記把持部と前記物体との接触力の合力とに基づいて算出された前記個々の接触点における接触力に応じて、前記把持部の把持力を制御する、前記(4)または(5)に記載の制御装置。
(7)
 前記把持部にはアクチュエータが連結されている、もしくは、前記把持部はアクチュエータを含み、
 前記把持制御部は、前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果から特定される前記アクチュエータの発生力とに基づいて算出された、前記把持部と前記物体とが一以上の点において接触した際の個々の接触点における接触力に応じて、前記把持部の把持力を制御する、前記(4)または(5)に記載の制御装置。
(8)
 前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果とに基づいて、前記個々の接触点における接触力を算出する接触力算出部をさらに備える、前記(4)~(7)のいずれか一項に記載の制御装置。
(9)
 前記触覚センサによるセンシング結果に基づいて、前記把持部に対する前記物体の滑り量を検出する滑り検出部をさらに備える、前記(8)に記載の制御装置。
(10)
 前記滑り検出部は、さらに、前記接触力算出部により算出された前記個々の接触点における接触力に基づいて、前記把持部に対する前記物体の滑り量を検出する、前記(9)に記載の制御装置。
(11)
 前記滑り検出部は、さらに、前記力覚センサによるセンシング結果に基づいて、前記把持部に対する前記物体の滑り量を検出する、前記(10)に記載の制御装置。
(12)
 さらに、前記滑り検出部は、前記把持部と前記物体との接触が検出されたか否かに基づいて、前記把持部に対する前記物体の滑り量を検出するか否かを決定する、前記(10)または(11)に記載の制御装置。
(13)
 前記把持制御部は、前記接触力算出部により算出された前記個々の接触点における接触力と、前記滑り検出部により検出された滑り量とに応じて、前記把持部の把持力を制御する、前記(9)~(12)のいずれか一項に記載の制御装置。
(14)
 前記把持制御部は、さらに、ユーザーにより指定された、前記把持部と前記物体との接触時の接触力の上限値に応じて、前記把持部の把持力を制御する、前記(13)に記載の制御装置。
(15)
 前記把持制御部は、さらに、ユーザーにより指定された、前記物体に対する前記把持部の接触力の目標値に応じて、前記把持部の把持力を制御する、前記(13)または(14)に記載の制御装置。
(16)
 前記把持制御部は、さらに、前記把持部が前記物体を過去に把持した際の前記物体の状態と前記把持部の把持力との関係性を示す情報に応じて、前記把持部の把持力を制御する、前記(13)~(15)のいずれか一項に記載の制御装置。
(17)
 前記把持制御部は、さらに、前記把持部が前記物体に接触している間の前記物体の状態の認識結果に応じて、前記把持部の把持力を制御する、前記(13)~(16)のいずれか一項に記載の制御装置。
(18)
 前記把持制御部は、さらに、前記把持部に対して行う制御の種類、または、前記把持部に関する制御パラメータを、前記把持部と前記物体との接触が検出されたか否かに応じて切り替える、前記(13)~(17)のいずれか一項に記載の制御装置。
(19)
 接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、プロセッサが、前記接触部に関連する把持力を制御すること、
を含む、制御方法。
(20)
 コンピュータを、
 接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、
として機能させるためのプログラム。
10 ロボット
100 把持制御部
102 把持力算出部
104 把持部
106 触覚センサ
108 力覚センサ
110 接触力特定部
112 滑り検出部
130 アクチュエータ
150 接触箇所数算出部
152 接触位置算出部
154 接触強度算出部
156 接触力算出部
200 接触力閾値記憶部
202 物体認識部
204 接触力上限特定部
206 入力部
208 把持状態認識部
210 接触検出部
212 本体制御部

Claims (20)

  1.  接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、
    を備える、制御装置。
  2.  前記接触部は、把持部であり、
     前記把持制御部は、前記触覚センサによるセンシング結果から特定される、前記把持部と前記物体とが一以上の点において接触した際の個々の接触点に関する情報と、前記力覚センサによるセンシング結果とに基づいて算出された前記個々の接触点における接触力に応じて、前記把持部の把持力を制御する、請求項1に記載の制御装置。
  3.  前記個々の接触点に関する情報は、前記個々の接触点の総数と、前記個々の接触点の位置関係を示す情報とを含む、請求項2に記載の制御装置。
  4.  前記個々の接触点に関する情報は、前記個々の接触点間の接触強度比をさらに含む、請求項3に記載の制御装置。
  5.  前記個々の接触点の位置関係を示す情報は、前記把持部内の前記個々の接触点の位置情報を含む、請求項4に記載の制御装置。
  6.  前記把持制御部は、前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果から特定される、前記把持部と前記物体との接触力の合力とに基づいて算出された前記個々の接触点における接触力に応じて、前記把持部の把持力を制御する、請求項4に記載の制御装置。
  7.  前記把持部にはアクチュエータが連結されている、もしくは、前記把持部はアクチュエータを含み、
     前記把持制御部は、前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果から特定される前記アクチュエータの発生力とに基づいて算出された、前記把持部と前記物体とが一以上の点において接触した際の個々の接触点における接触力に応じて、前記把持部の把持力を制御する、請求項4に記載の制御装置。
  8.  前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果とに基づいて、前記個々の接触点における接触力を算出する接触力算出部をさらに備える、請求項4に記載の制御装置。
  9.  前記触覚センサによるセンシング結果に基づいて、前記把持部に対する前記物体の滑り量を検出する滑り検出部をさらに備える、請求項8に記載の制御装置。
  10.  前記滑り検出部は、さらに、前記接触力算出部により算出された前記個々の接触点における接触力に基づいて、前記把持部に対する前記物体の滑り量を検出する、請求項9に記載の制御装置。
  11.  前記滑り検出部は、さらに、前記力覚センサによるセンシング結果に基づいて、前記把持部に対する前記物体の滑り量を検出する、請求項10に記載の制御装置。
  12.  さらに、前記滑り検出部は、前記把持部と前記物体との接触が検出されたか否かに基づいて、前記把持部に対する前記物体の滑り量を検出するか否かを決定する、請求項10に記載の制御装置。
  13.  前記把持制御部は、前記接触力算出部により算出された前記個々の接触点における接触力と、前記滑り検出部により検出された滑り量とに応じて、前記把持部の把持力を制御する、請求項9に記載の制御装置。
  14.  前記把持制御部は、さらに、ユーザーにより指定された、前記把持部と前記物体との接触時の接触力の上限値に応じて、前記把持部の把持力を制御する、請求項13に記載の制御装置。
  15.  前記把持制御部は、さらに、ユーザーにより指定された、前記物体に対する前記把持部の接触力の目標値に応じて、前記把持部の把持力を制御する、請求項13に記載の制御装置。
  16.  前記把持制御部は、さらに、前記把持部が前記物体を過去に把持した際の前記物体の状態と前記把持部の把持力との関係性を示す情報に応じて、前記把持部の把持力を制御する、請求項13に記載の制御装置。
  17.  前記把持制御部は、さらに、前記把持部が前記物体に接触している間の前記物体の状態の認識結果に応じて、前記把持部の把持力を制御する、請求項13に記載の制御装置。
  18.  前記把持制御部は、さらに、前記把持部に対して行う制御の種類、または、前記把持部に関する制御パラメータを、前記把持部と前記物体との接触が検出されたか否かに応じて切り替える、請求項13に記載の制御装置。
  19.  接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、プロセッサが、前記接触部に関連する把持力を制御すること、
    を含む、制御方法。
  20.  コンピュータを、
     接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、
    として機能させるためのプログラム。
PCT/JP2019/001901 2018-03-27 2019-01-22 制御装置、制御方法、および、プログラム WO2019187546A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020207026589A KR102586779B1 (ko) 2018-03-27 2019-01-22 제어 장치, 제어 방법, 및 프로그램
EP19776052.3A EP3778153A4 (en) 2018-03-27 2019-01-22 CONTROL DEVICE, CONTROL PROCESS AND PROGRAM
US16/982,204 US11999051B2 (en) 2018-03-27 2019-01-22 Control device, control method, and program
JP2020509717A JP7276318B2 (ja) 2018-03-27 2019-01-22 制御装置、制御方法、および、プログラム
CN201980020331.2A CN111867791A (zh) 2018-03-27 2019-01-22 控制装置、控制方法和程序
JP2023073719A JP2023086924A (ja) 2018-03-27 2023-04-27 制御方法、制御システム及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018059544 2018-03-27
JP2018-059544 2018-03-27

Publications (1)

Publication Number Publication Date
WO2019187546A1 true WO2019187546A1 (ja) 2019-10-03

Family

ID=68061124

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/001901 WO2019187546A1 (ja) 2018-03-27 2019-01-22 制御装置、制御方法、および、プログラム

Country Status (6)

Country Link
US (1) US11999051B2 (ja)
EP (1) EP3778153A4 (ja)
JP (2) JP7276318B2 (ja)
KR (1) KR102586779B1 (ja)
CN (1) CN111867791A (ja)
WO (1) WO2019187546A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7480600B2 (ja) * 2020-06-11 2024-05-10 セイコーエプソン株式会社 目標力上限値設定方法およびロボットシステム
IT202100008006A1 (it) * 2021-03-31 2022-10-01 Fondazione St Italiano Tecnologia Metodo di controllo di una pinza di presa
WO2024030669A2 (en) * 2022-08-05 2024-02-08 Ghost Robotics Corporation Method to improve walking performance of quadrupeds over soft surfaces

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06126684A (ja) * 1992-10-21 1994-05-10 Mitsubishi Electric Corp 物体把持装置及びその制御方法
JP2006047145A (ja) * 2004-08-05 2006-02-16 Hyogo Prefecture 計測システムおよび計測方法並びに把持装置制御システム
JP2007152528A (ja) * 2005-12-08 2007-06-21 Ario Techno Kk 関節装置、関節装置を用いたフィンガーユニット、及び、ユニバーサルロボットハンド
JP2009034743A (ja) * 2007-07-31 2009-02-19 Sony Corp 検出装置および方法、並びにプログラム
JP2009066714A (ja) 2007-09-13 2009-04-02 Sony Corp 制御装置および方法、プログラム並びに記録媒体
US20160136822A1 (en) * 2014-11-18 2016-05-19 Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd. Robotic finger structure

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10850392B2 (en) * 2004-04-12 2020-12-01 Strider Labs, Inc. System and method for computing grasps for a robotic hand with a palm
JP4729723B2 (ja) * 2004-09-14 2011-07-20 国立大学法人 奈良先端科学技術大学院大学 触覚センサ、摩擦検査装置、把持装置及び滑り余裕計測方法
JP2006123149A (ja) * 2004-11-01 2006-05-18 Sharp Corp 関節駆動機構およびロボットハンド
JP2009066683A (ja) 2007-09-11 2009-04-02 Sony Corp ロボットハンド及び制御方法、並びにプログラム
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
JP5678670B2 (ja) * 2011-01-06 2015-03-04 セイコーエプソン株式会社 超音波センサー、触覚センサー、および把持装置
US8504205B2 (en) * 2011-03-17 2013-08-06 Harris Corporation Robotic grasping device with multi-force sensing at base of fingers
KR101294250B1 (ko) 2012-02-17 2013-08-07 재단법인대구경북과학기술원 그리퍼 파지력 연산방법 및 그 장치
JP2014108466A (ja) * 2012-11-30 2014-06-12 Fanuc Ltd 力センサ付き電動ハンド
JP2014184027A (ja) * 2013-03-25 2014-10-02 Seiko Epson Corp 指アシスト装置
US10272568B2 (en) * 2015-09-17 2019-04-30 Canon Kabushiki Kaisha Robot apparatus, robot controlling method, program, recording medium, and assembly manufacturing method
US9855663B1 (en) * 2016-06-17 2018-01-02 X Development Llc Automated digit interchange
KR102344581B1 (ko) * 2016-09-09 2021-12-31 센셀, 인크. 터치 센서 상의 입력을 검출하고 특징화하기 위한 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06126684A (ja) * 1992-10-21 1994-05-10 Mitsubishi Electric Corp 物体把持装置及びその制御方法
JP2006047145A (ja) * 2004-08-05 2006-02-16 Hyogo Prefecture 計測システムおよび計測方法並びに把持装置制御システム
JP2007152528A (ja) * 2005-12-08 2007-06-21 Ario Techno Kk 関節装置、関節装置を用いたフィンガーユニット、及び、ユニバーサルロボットハンド
JP2009034743A (ja) * 2007-07-31 2009-02-19 Sony Corp 検出装置および方法、並びにプログラム
JP2009066714A (ja) 2007-09-13 2009-04-02 Sony Corp 制御装置および方法、プログラム並びに記録媒体
US20160136822A1 (en) * 2014-11-18 2016-05-19 Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd. Robotic finger structure

Also Published As

Publication number Publication date
US11999051B2 (en) 2024-06-04
JPWO2019187546A1 (ja) 2021-04-15
KR20200133337A (ko) 2020-11-27
US20210031377A1 (en) 2021-02-04
EP3778153A4 (en) 2021-05-26
KR102586779B1 (ko) 2023-10-11
CN111867791A (zh) 2020-10-30
JP2023086924A (ja) 2023-06-22
EP3778153A1 (en) 2021-02-17
JP7276318B2 (ja) 2023-05-18

Similar Documents

Publication Publication Date Title
JP2023086924A (ja) 制御方法、制御システム及びプログラム
US11685042B2 (en) Working robot and control method for working robot
KR101741844B1 (ko) 파지 판별 장치 및 파지 판별 방법
JP5338297B2 (ja) ロボットの制御装置
CN112936278B (zh) 机器人的人机协作控制方法、装置和机器人
KR20150080050A (ko) 다관절로봇의 충돌 감지 장치 및 이를 이용한 충돌 감지 방법
JP2009269127A (ja) 把持装置及びその制御方法
CN109968377B (zh) 机器人控制系统和控制机器人的方法
KR20120053274A (ko) 로봇 제어방법
CN101239467A (zh) 机器人控制装置
JPH08323678A (ja) 柔軟物体把持装置
JP2024001106A5 (ja)
Koyama et al. High-speed, small-deformation catching of soft objects based on active vision and proximity sensing
JP4678550B2 (ja) 制御装置および方法、並びにプログラム
CN108724180B (zh) 机器人系统
JP2015074061A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
Franzel et al. Detection of collaboration and collision events during contact task execution
JP2021084210A (ja) ロボット、エンドエフェクタ、システム、方法及びプログラム
JP4600445B2 (ja) ロボットハンド装置
JP4055703B2 (ja) ロボットハンド装置
CN114952905A (zh) 一种带触觉反馈控制的机械手
CN110883773B (zh) 一种用于二指机械手抓取操作的自适应控制方法
JP7537192B2 (ja) ロボットシステム及びピッキング方法
Kato et al. Motion Planning for Cutting Flexible Objects Based on Contact State Recognition
US20240300095A1 (en) Operation control method, operation control device, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19776052

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020509717

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019776052

Country of ref document: EP

Effective date: 20201027