[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2023222445A1 - Verfahren zur kalibrierung eines bauroboters und bauroboter - Google Patents

Verfahren zur kalibrierung eines bauroboters und bauroboter Download PDF

Info

Publication number
WO2023222445A1
WO2023222445A1 PCT/EP2023/062224 EP2023062224W WO2023222445A1 WO 2023222445 A1 WO2023222445 A1 WO 2023222445A1 EP 2023062224 W EP2023062224 W EP 2023062224W WO 2023222445 A1 WO2023222445 A1 WO 2023222445A1
Authority
WO
WIPO (PCT)
Prior art keywords
manipulator
mobile platform
construction robot
tool
construction
Prior art date
Application number
PCT/EP2023/062224
Other languages
English (en)
French (fr)
Inventor
Peter Brugger
Julia Zanona
Original Assignee
Hilti Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP22174203.4A external-priority patent/EP4279221A1/de
Application filed by Hilti Aktiengesellschaft filed Critical Hilti Aktiengesellschaft
Publication of WO2023222445A1 publication Critical patent/WO2023222445A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/003Programme-controlled manipulators having parallel kinematics
    • B25J9/0054Programme-controlled manipulators having parallel kinematics with kinematics chains having a spherical joint at the base
    • B25J9/0057Programme-controlled manipulators having parallel kinematics with kinematics chains having a spherical joint at the base with kinematics chains of the type spherical-prismatic-spherical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile

Definitions

  • the invention relates to a construction robot for carrying out construction work on a construction site object, comprising a mobile platform and a manipulator that is movable relative to the mobile platform.
  • the invention further relates to a method for calibrating a construction robot.
  • Construction work on construction sites often has to be carried out with a high level of positional accuracy.
  • holes in ceilings often have to be carried out with positional accuracies of 0.5 cm or better so that, for example, ceiling elements to be arranged on the ceilings can be properly fixed to the holes.
  • the manipulator In order to achieve such positional accuracies with a construction robot that is intended to carry out such construction work with the help of a manipulator, the manipulator should also be controllable with high precision. In particular, movements of the manipulator relative to a mobile platform of the construction robot should be controllable precisely and, in particular, in a predictable manner.
  • the manipulator usually has actuators, for example stepper motors, with which a desired position of the manipulator can be moved to. However, due to manufacturing tolerances, there may be systematic deviations specific to the respective manipulator between the desired position and the position actually reached, measured relative to the position and location of the mobile platform.
  • the manipulator Before the first use of a construction robot or its manipulator, the manipulator has so far been calibrated; in particular, calibration data for calibrating actuating movements of the manipulator are generated, from which correction information is later derived in order to correct later actuating movements accordingly.
  • this method requires such a calibrated duplicate, which significantly increases the cost of calibration.
  • the calibration can also only take place at the location of the duplicate, usually a manufacturing facility or a repair shop, but not a construction site where the construction robot is to be used. If, for example, the manipulator needs to be replaced as a result of damage or wear and tear, such a replacement cannot usually be carried out directly on site due to calibration.
  • the object of the present invention is therefore to offer a cost-effective construction robot that can carry out construction work with a particularly high level of positional accuracy. Furthermore, a method for calibrating a construction robot will be presented, through which a construction robot can be calibrated in a particularly simple and cost-effective manner, even on site.
  • a construction robot for carrying out construction work on a construction site object, comprising a mobile platform and a manipulator that is movable relative to the mobile platform, and an optical sensor system that is at least partially arranged and / or designed on the mobile platform and a control unit that is set up , using the optical sensor system to determine a position and / or a position of the manipulator, in particular a tool arranged on the manipulator, relative to the mobile platform.
  • positions of even a still uncalibrated manipulator can be determined largely free of manufacturing tolerances, particularly mechanical ones.
  • these positions can be determined at any location.
  • a replacement manipulator can also be calibrated directly on site at a construction site where the associated construction robot is to be used.
  • Calibration can therefore be carried out using on-board resources that are always available.
  • a construction robot can also be understood as a calibration-free construction robot, especially in the sense that it does not require calibration with external additional devices.
  • An advantage of the construction robot is that it has a position and/or position of the manipulator, in particular the tool, relative to the mobile platform can determine automatically and independently of the mechanical properties of the manipulator. If the manipulator is replaced, no calibration with additional devices or perhaps fewer calibration measures are required in order to precisely control the tool with the replaced manipulator to the desired positions.
  • the manipulator can also be moved, for example in a feedback loop, and the position achieved by the manipulator and/or the tool can be determined relative to the mobile platform using the sensors. If the position reached deviates from a target position, a corrective movement of the manipulator can be carried out repeatedly until the target position is reached.
  • An optical sensor system can be understood as a sensor system that is based on the detection of electromagnetic waves.
  • a sensor system based on visible and/or infrared light and/or microwaves is conceivable.
  • the construction robot can have an end effector.
  • the end effector can have at least one tool or a tool holder for holding a tool.
  • the end effector and the mobile platform can be connected via the manipulator.
  • a tool interface for holding the tool and/or for energy transmission and/or for data transmission from and/or to the tool can be arranged and/or formed on the end effector.
  • a tool can be understood as meaning an application tool such as a marking tool, a drill, a chisel, a saw blade or a grinding tool.
  • a tool can also include a machine tool, in particular set up to hold and / or use a tool, for example a marking machine, for example a controllable paint spray nozzle, a drill, in particular a rock drill, for example a hammer drill, a chisel machine, a grinder or the like , be understood.
  • the optical sensor system can be designed in several parts. In particular, a part may be located on the manipulator, the end effector and/or the tool. At least one other part may be located on the mobile platform.
  • the optical sensor system can thus be set up particularly simply to determine the position of the manipulator using the first-mentioned part with high precision relative to the mobile platform, corresponding to the at least one other part.
  • the optical sensor system can include, for example, a laser distance meter.
  • it can comprise at least one image recording unit.
  • the image recording unit can include a black and white and/or a color image camera.
  • the construction robot can have non-optical sensors.
  • the control unit can then be set up to determine a position and/or a location of the manipulator, in particular a tool arranged on the manipulator, relative to the mobile platform using the non-optical sensor system. Then, at least temporarily, position determination is also possible if, for example, there is no clear visual contact between different parts of the optical sensor system.
  • the non-optical sensor system can be, for example, a mechanical sensor system. For example, it can be set up to determine positions of individual joints of the manipulator. For this purpose, it can include at least one proprioceptive sensor.
  • angles of inclination of the construction robot can additionally be determined relative to a surface on which the construction robot is located and / or relative to the horizontal.
  • a working position for example a drilling position to be achieved on a wall or a ceiling, can be approached even more precisely with the manipulator and in particular with the tool, since any tilting moments, particularly when the manipulator is stretched further, are determined relative to the ground and/or to the horizontal and can be compensated.
  • the position sensor can be set up to determine a position of the mobile platform and/or the manipulator, in particular of the end effector, for example relative to a horizontal and/or a vertical. Accordingly, it can be arranged on the mobile platform and/or on the manipulator, in particular on the end effector.
  • the position sensor can be and/or have an acceleration sensor, for example.
  • the acceleration sensor can be formed in particular on the end effector and/or on the mobile platform.
  • the acceleration sensor can be set up to detect accelerations along at least one direction, preferably two-dimensionally, particularly preferably three-dimensionally. Changes in the position and/or attitude detected by the sensors and/or the acceleration sensor can be compensated for by an adjusting device of the construction robot.
  • a localization marking for example in the form of an AruCo marking, can be arranged and/or formed on the construction robot, in particular on the end effector and/or on the manipulator.
  • the optical sensor system can include the localization identification.
  • the image recording unit can then record the position and/or location, in particular with high accuracy, without contact and at high frequency.
  • the control unit can identify and localize the localization marking by image processing of images recorded with the image recording unit.
  • an optical sensor system can have a low weight.
  • the localization marking can have a low weight, so that only small additional loads act on the manipulator or the end effector due to the optical sensor system.
  • Such an optical sensor system can also be particularly cost-effective, since cost-relevant precision elements such as precision angle measuring units or LIDAR scanners can be dispensed with.
  • the localization marking can be arranged at least partially, preferably completely, in a field of view of the image recording unit.
  • the manipulator can have at least three, preferably at least six, degrees of freedom.
  • the degrees of freedom can exist in particular relative to the mobile platform. At least three degrees of freedom make it possible to work on ceilings or walls without pivoting the mobile platform from the vertical to the horizontal or vice versa. With six degrees of freedom, you can work on both ceilings and walls without pivoting the mobile platform. This also means that construction work can be carried out in positions that are otherwise difficult to reach, for example if the path to the desired position would otherwise be blocked by installation elements such as lines or cable guides with fewer degrees of freedom.
  • the end effector can also offer further degrees of freedom.
  • End effector can be arranged a telescopic element with which, for example, the tool can be moved relative to the end effector.
  • the tool can be and/or comprise, for example, a marking tool, a drilling tool, a chiseling tool, a grinding tool and/or a cutting tool, in particular a saw blade.
  • the construction robot can be set up to carry out work in civil engineering and / or plant construction.
  • On-site calibration is often particularly important on such construction sites, but has so far been very difficult to carry out.
  • the mobile platform is an aerial platform.
  • the flight platform can be a drone. It can have at least one propeller. Flying can also include floating in the air.
  • the mobile platform can be set up for wired and/or wireless execution of construction work. For example, it can be connected to a supply line during operation. Alternatively or additionally, it can also have an accumulator, in particular lithium-based. It is also conceivable that the mobile platform has a fuel cell.
  • the mobile platform comprises a mobile platform, for example a tracked vehicle and/or a wheeled vehicle, and/or is designed as such.
  • the mobile platform can have a lifting device.
  • the construction robot in particular the end effector, can have a laser distance meter.
  • at least one position marker can be arranged on the construction site, so that a position and/or location of the construction robot relative to the position marker, preferably to several position markers, can be determined. Alternatively or additionally, it can be set up to be recorded by a total station to determine its position and / or location.
  • the construction robot can have a reflector, for example Shape of a prism.
  • a position and/or a position of the construction robot, in particular a position and/or a location can thus be determined relative to an absolute reference system of the construction site and/or the total station or the at least one position marker.
  • the reflector or the laser distance meter can be arranged on the mobile platform, to which a visual connection can often be established.
  • at least one position and/or position of the mobile platform can then be detected and, with knowledge of the relative offset of the mobile platform to the end effector, in particular to the tip of the tool, also a position and/or position of the end effector, in particular a position and/or position the tip of the tool can be determined.
  • the scope of the invention also includes a method for calibrating a construction robot of the type described above and/or below, wherein calibration data for calibrating actuating movements of the manipulator are generated by bringing the manipulator into at least a first position and then into a second position, and upon reaching the respective position, at least one position and/or position of the manipulator, in particular a tool arranged on the manipulator, relative to the mobile platform, is determined using the optical sensor system which is at least partially arranged and/or formed on the mobile platform of the construction robot.
  • the construction robot can also be calibrated on site, for example on a construction site. No particularly expensive components are required, so that the process can be carried out particularly cost-effectively.
  • At least one of the positions and/or locations can be determined by recording and evaluating first image data of a localization marking arranged and/or formed on the manipulator and second image data of an external localization marking arranged and/or formed in an environment of the construction robot.
  • the first and second image data can in particular be recorded from the mobile platform, for example if the Image recording unit is arranged and / or formed on the mobile platform.
  • the external localization marking is arranged at least temporarily, in particular during an ongoing calibration, in a stationary manner relative to the environment.
  • the additional use of the second image data also makes it possible, in particular, to record tilting movements of the entire construction robot relative to the environment and depending on the movements of the manipulator, in particular depending on its respective extension.
  • the use of a position sensor can be supplemented or replaced.
  • positions to be approached correspond to certain positions of the manipulator and/or the tool relative to the external localization marking.
  • Fig. 1 shows a construction robot with a flying platform that performs a construction task on a ceiling executes
  • Fig. 5 shows another construction robot with a mobile platform
  • Fig. 6 shows a method for calibrating a construction robot.
  • Fig. 1 shows a construction robot 10 that carries out a construction task on a ceiling 100, i.e. on a construction site object, of a building under construction, in particular on a construction site located in the building.
  • the construction task is to mark markings on the underside of the ceiling 100 according to available CAD planning data.
  • the construction robot 10 is designed as a drone, i.e. H. trained as an unmanned flying object. For this purpose it has a mobile platform 12 in the form of a hexacopter. An end effector platform 14 is arranged on the mobile platform 12.
  • FIG. 2 shows the end effector platform 14 in a perspective view from the side.
  • the end effector platform 14 includes an end effector 16.
  • the end effector 16 is connected to the mobile platform 12 via a manipulator 18, in particular a parallel manipulator, of the construction robot 10.
  • the construction robot 10 is set up to mark markings on the ceiling 100 according to CAD data transmitted to the construction robot 10.
  • the end effector 16 has a marking pen 20.
  • the marking pen 20 is arranged on a lifting device 22.
  • the marking pen 20 can be moved toward and/or away from the ceiling 100, in particular without having to move the end effector platform 14 as a whole. This movement option is symbolized in Fig. 2 with a double arrow.
  • the marking pen 20 is designed as a colored pen so that it can apply a colored marking to the ceiling 100 as soon as it touches the ceiling 100.
  • the marking pen 20 can be arranged resiliently on the lifting device 22, for example by means of a foam material and / or a metal element.
  • the marking pen 20 thus represents a marking tool that is accommodated in a tool holder (not visible in the illustration according to FIG. 2), which in turn is arranged on the lifting device 22.
  • the end effector 16 also has three contact elements 24.
  • the contact elements 24 are designed as wheels, in particular as omnidirectional wheels. As can be seen in particular from FIG. 1, the contact elements 24 contact the ceiling 100 during the execution of the construction task, i.e. during the marking of the ceiling 100. They can each be driven individually by motors 26. Thus, the end effector 16 can be moved along the ceiling 100 (FIG. 1) at least along two dimensions with the help of the motor-driven contact elements 24, i.e. in this exemplary embodiment with the help of the omnidirectional wheels.
  • the manipulator 18 is designed as a hexapod. It has six support arms 28.
  • the support arms 28 are not driven in this exemplary embodiment, but are rotatably mounted at bearing points of the end effector 16 on the one hand and at bearing points of a fastening device 30 located under the end effector 16.
  • the end effector 16 is thus movable relative to the fastening device 30, in particular with at least 6 degrees of freedom, but is still supported by the support arms 28.
  • the manipulator 18 is therefore designed as a passive system.
  • the support arms 28 are designed as, in particular fluid-damped, shock absorbers. For damping, they have a fluid-filled piston, in particular filled with water, and spring elements arranged on the outside. The pistons together with the respective spring elements thus form damping elements.
  • the spring elements ensure an automatic return to the rest position.
  • the spring hardnesses of the support arms 28 can be adjusted so that they are determined by the own weight of the end effector 16 or, alternatively, by the own weight of the end effector 16 plus an expected additional load force, for example 15 N, in the rest position approximately up to half of the total length of the Support arms 28 are retracted. Starting from the rest position, they can be set up in such a way that that the end effector 16 can be moved sufficiently far, for example by 2 to 4 cm in an x and a y direction of a plane parallel to the end effector 16.
  • the support arms 28 are arranged such that the end effector platform 14 is in a stable state in the rest position.
  • the support arms 28 are arranged in such a way that the end effector 16 does not tilt to one side by itself.
  • Positions and/or positions suitable for such a stable rest position for the support arms 28 can be found by determining an overall energy balance of the arrangement, in particular comprising a positional energy of the end effector and, if applicable, the support arms 28 depending on its position and/or location as well as a Clamping energy of the spring elements of the support arms 28 is created and a minimum of the total energy that is as global as possible, but at least local, is sought depending on the positioning and / or orientation of the support arms 28.
  • the fastening device 30 is used to fasten the end effector platform 14 to the mobile platform 12 (see FIG. 1).
  • the attachment can be designed to be detachable, so that the end effector platform 14 can also be subsequently mounted on other mobile platforms, for example octacopters or on a ground-based mobile platform, for example a wheeled and / or tracked chassis.
  • the fastening device 30 forms a lower level below the end effector 16. It has lighting 32 and a camera 34.
  • the camera 34 is an image capture unit.
  • the lighting 32 and the camera 34 are aligned upwards, i.e. towards the underside of the end effector 16.
  • the localization marking 36 has a checkerboard-like pattern of registration marks, for example in the form of ArUco markings. Other versions of the localization marking are also conceivable.
  • the localization marking should be designed in such a way that it can itself be identified with high sensitivity and specificity and, in particular, can be distinguished from an environment such as that which is typical on construction sites.
  • it should preferably have at least one easily identifiable route of known length, so that at least this route can be used to calibrate Distance estimates can be used.
  • the localization marking should be identifiable and localizable through image processing.
  • the localization marking preferably has at least one two-dimensional pattern, so that its position or orientation in space can also be determined by image processing. Accordingly, it is also conceivable that a moving, visibly arranged part of the manipulator and / or the tool is used as a localization identifier, provided that its shape, in particular at least one dimension, is known and constant and the part meets the above-mentioned requirements for its identifiability and Localizability met.
  • a control unit 38 shown schematically in FIG of the end effector 16 relative to the fastening device 30.
  • a reflection element 40 is arranged on the fastening device 30, which is set up, for example, to be detected by a total station, in particular located outside of the construction robot 10, so that the position and / or position of the reflection element 40 and thus the position and / or position the fastening device 30 can be determined relative to an environmental origin.
  • the control unit 38 can be set up to receive position and / or position data from such a total station and, in conjunction with the determined relative position and / or position of the end effector 16 relative to the fastening device 30, an absolute position and / or position of the end effector 16 and thus, taking into account the position of the lifting device 22, a position and / or position of the marking pen 20 can be determined relative to the total station, the ceiling 100 and / or another fixed reference system of the construction site.
  • the control unit 38 may include a microcontroller. In particular, it can have a microprocessor and program code that can be executed on the microprocessor and is stored in a memory unit of the control unit 38. In order to achieve the greatest possible self-sufficiency of the end effector platform 14, the end effector platform 14 can also have an energy source that is independent of the mobile platform 12, for example a rechargeable battery.
  • the control unit 38, the camera 34 and the localization identifier 36 form an optical sensor system that is set up to detect a position and / or position of the end effector 16 relative to the mobile platform 12.
  • the end effector 16 can also have an acceleration sensor 42 that measures, for example, three-dimensionally (shown only schematically in FIG. 2). Acceleration of the end effector 16 can thus be measured. With the help of the measured accelerations, the determination of the position and/or position of the end effector 16 and thus of the marking pen 20, in particular by the control unit 38, can be further improved.
  • an acceleration sensor 42 measures, for example, three-dimensionally (shown only schematically in FIG. 2). Acceleration of the end effector 16 can thus be measured. With the help of the measured accelerations, the determination of the position and/or position of the end effector 16 and thus of the marking pen 20, in particular by the control unit 38, can be further improved.
  • Fig. 4 shows another construction robot 10.
  • the construction robot 10 has a mobile platform 12 in the form of a mobile platform, in particular a chassis designed as a tracked chassis.
  • a control chamber 46 (which can only be shown schematically in FIG. 4) is formed in a housing 44.
  • a manipulator 18 is located on the top side of the housing 44.
  • the manipulator 18 is designed as a multiaxially controllable arm, at the free end of which an end effector 16 with a tool, in particular in the form of a drilling machine tool 48 and a dust extraction device 50, is arranged.
  • the manipulator 18 has a lifting device 22 with which the remaining part of the manipulator 18 can be moved vertically.
  • the construction robot 10 is not limited to this configuration.
  • a measuring tool such as an image sensor and / or a length meter, for example a transit time distance meter or include a LIDAR, a cutting tool, a drilling tool, a grinding tool or any other tool suitable for completing construction tasks.
  • the construction robot 10 is designed to carry out construction tasks, in particular drilling work in ceilings and walls, on a construction site, for example on a building construction site.
  • the manipulator 18 for carrying out the construction tasks assigned to the construction robot 10 it has a control unit 38 arranged within the housing 14, in particular in the control room 16.
  • the control unit 38 includes a microcontroller 52.
  • the control unit 38 is equipped with executable program code 56, which is stored in an executable manner in a memory unit 54 of the microcontroller 52.
  • the program code 56 is set up in such a way that when the program code 56 is executed on the microcontroller 52, the construction robot 10 carries out a calibration of the manipulator 18 according to the method described in connection with FIG. 6.
  • the control unit 38 also has a communication interface 58 for communication with a remote computer system.
  • control unit 38 Since the control unit 38, the microcontroller 52 with the memory unit 54 and the program code 56 and the communication interface 58 are arranged in the control room 46 and thus within the housing 44, these, including the control room 46, are only shown schematically in FIG.
  • the construction robot 10 also has a display unit 60, which is designed as a touchscreen.
  • the display unit 60 is connected to the control unit 38.
  • the control unit 38 can be operated via the display unit 60.
  • the control unit 38 and thus the construction robot 10 can also be remotely controllable, in particular by remote control via the communication interface 58.
  • a localization marking 36 preferably rigid relative to the drilling machine tool 48, is arranged on the end effector 16.
  • the localization identifier 36 can correspond to the localization identifier 36 described above in connection with FIG. 3.
  • a reflection element 40 corresponding to the reflection element described above is also arranged on the end effector 16. It is also conceivable that the localization marking 36 is part of and/or of the type of reflection element 40 is trained.
  • a camera 34 is arranged on the mobile platform 12. It is set up in such a way, in particular arranged in such a way and/or equipped with such a field of view, that the localization marking 36 is in the field of view of the camera 34 at least in at least two different, preferably in all possible, positions of the manipulator 18.
  • the camera 34 and the localization identifier 36 thus form an optical sensor system 62 which is at least partially arranged (because of the camera 34) on the mobile platform 12 and is set up to detect a position and/or position of the end effector 16 relative to the mobile platform 12.
  • control unit 38 can thus determine a position and / or a position of the manipulator 18 or the end effector 16, in particular a tool arranged on the manipulator 18, here the drilling machine tool 48, relative to the mobile platform 12.
  • a position of the mobile platform 12 can be determined using a position sensor in the form of an acceleration sensor 42.
  • angle data such as roll, pitch or yaw angles of the mobile platform 12 can be measured using the acceleration sensor 42.
  • the program code 56 and thus the control unit 38 are set up to use this angle data from the acceleration sensor 42 to modify calibration data as required and / or to appropriately correct the control of the manipulator 18 to achieve a desired position.
  • the construction robot 10, in particular the manipulator 18, also has a non-optical sensor system 64. This is also shown only schematically in FIG. It is set up to measure positions and changes in position of the joints of the manipulator 18 and its lifting device 22.
  • the program code 56 and thus the control unit 38 are set up, also by means of the non-optical sensor system 64, at least one position and / or one position of the manipulator 18 and I or drilling machine tool 48 to determine. It is therefore conceivable to calibrate the determination using the non-optical sensor system 64 using the optical sensor system 62, particularly when there is a line of sight between the localization marking 36 and the camera 34. For example, to carry out construction work, the manipulator 18 can then be controlled by the control unit 38 using data from the non-optical sensor system 64 calibrated in this way.
  • FIG. 5 shows another construction robot 10 with a mobile platform as a mobile platform 12. Unless otherwise described below, this embodiment can correspond to the previously described embodiment according to FIG. 4.
  • an acceleration sensor corresponding to the acceleration sensor 42 can be dispensed with, at least for calibrating the manipulator 18, although a high calibration quality can still be achieved.
  • the external localization marking 66 can be seen in FIG. 5.
  • the external localization marking 66 can also have one or more registration marks, for example in the form of AruCo markers. Three registration marks A, B, C are shown as examples.
  • the external localization marking 36 is arranged separately from the construction robot 10. It can be located, for example, on a ceiling 100 of a construction site where the construction robot 10 is to be used.
  • the external localization identifier 66 can have one or more of the features of the localization identifier 36.
  • the external localization marking 66 is preferably made considerably larger. For example, it can have dimensions of the order of 10° x 10° m 2 , whereas the localization identifier 36 can have dimensions of the order of 10° x 10° cm 2 , for example.
  • Both the localization identifier 36 and the external localization identifier 66 are preferably in the field of view of the camera 34.
  • the camera 34 can thus record first image data 68 of the localization identifier 36 and second image data 70 of the external localization identifier 66.
  • FIG. 5 also shows schematically that the manipulator 18 together with the end effector 16 can be controlled into different positions I, II, III, whereby the Localization marking 36 and also the external localization marking 66, which is stationary relative to an environment of the construction robot 10, remain in the field of view of the camera 34.
  • the manipulator 10 and in particular its non-optical sensor system 64 can be calibrated in accordance with the method described below.
  • FIG. 6 shows a method 1000 for calibrating a construction robot in the manner of the construction robots described above.
  • the method 1000 is explained in more detail below with reference to the reference numbers introduced above.
  • the method is to be carried out using the example that the manipulator 18 of the construction robot 10 has been replaced and therefore there are manufacturing tolerances to be calibrated between measured values of the non-optical sensor system 64 or associated desired positions of the manipulator 18 and the positions and/or positions of the manipulator 18 that have actually been approached.
  • the calibration takes place not only with regard to the position of the actual manipulator 18, but also or alternatively, for example, with regard to the position of a tool that is arranged on the manipulator 18, for example with the aid of the end effector 16, for example with regard to the drilling machine tool 48 can.
  • positions I, II and III are used for calibration.
  • a measurement phase 1010 the manipulator 18 is successively brought into one of the positions I, II or III, in particular not yet used, with the help of adjusting movements 1012.
  • a determination 1014 of the position and position of the manipulator 18 relative to the mobile platform 12 is carried out using the optical sensor system 62.
  • the measured values of the ( to be calibrated) non-optical sensor system 64 recorded. This is repeated until all positions to be analyzed, in the example a total of three positions, have been approached and their position and location have been determined.
  • first image data 68 of the localization identifier 36 can be recorded by the camera 34.
  • the first image data 68 can then be evaluated by the control unit 38 using image processing and thereby distance and orientation data on the location and position of the localization marking 36 relative to the camera 34, so that data on the location and position of the manipulator 18 relative to the mobile platform 12 can be obtained .
  • known distances for example certain dimensions, can be used as the basis for the localization identifier 36 of the estimate.
  • the localization identifier 36 can first be identified using a suitably trained deep learning algorithm. A relative position and a relative distance to the camera 34 can then be derived from the way in which the perspective distortion of the image of the localization identifier 36 within the first image data 68 is obtained. From these, the desired distance and orientation data can be derived.
  • the camera 34 can also be used to collect second image data 70 in which the external localization identifier 66 is depicted. It is conceivable that, in the event that both the localization identifier 36 and the external localization identifier 66 are already both depicted in the first image data 68, at least to a sufficient extent, the first image data 68 can also be used as the second image data 70.
  • the evaluation of the second image data 70 can be carried out analogously to the evaluation of the first image data 68, here only based on the external localization identifier 66.
  • the collected location and position data of the optical sensor system 62 on the one hand and the non-optical sensor system 66 on the other hand are compared with one another.
  • the desired calibration data can then be derived from the comparison.
  • angle data from the position sensor can be integrated into the calibration data in order to additionally compensate for corresponding tilting movements of the mobile platform 12 during later control of the manipulator 38.
  • angle data on tilting movements that occur during calibration can also be determined by evaluating deviations in the relative positions and the positions of the external localization identifier 66, that is, between different sets of second image data 70. This data can also be used to additionally compensate for tilting movements of the mobile platform 12.
  • the calibration data obtained can later be used to modify control of the manipulator 18 based on measured values from the non-optical sensor system 64.
  • the control can be modified in such a way that a target position achieved using the non-optical sensor system 64 corresponds to an actually desired position according to measured values based on the optical sensor system 62 as “ground truth”.
  • the calibration data can then be used to compensate for previously identified manufacturing tolerances.
  • positions one after the other with the manipulator 18 the positions corresponding to certain constellations with respect to the external localization identifier 66.
  • constellations could e.g. B. be that a tool tip of the drilling machine tool 48 touches one of the registration marks A, B, C in a specific way.
  • the tool tip can be monitored using the camera 34 and the manipulator 38 can be controlled accordingly using ongoing image processing by the control unit 38 until such optical monitoring detects that the desired constellation has been reached.
  • the position and location of the manipulator 18 can be determined based on the measured values supplied by the non-optical sensor system 64. Based on defined distances and/or geometries of the constellations, in particular the registration marks, from one another and by comparison with the associated measured values of the non-optical sensor system 64, deviations can then be determined and calibration data can be derived from this.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

Die Erfindung betrifft einen Bauroboter (10) zur Ausführung einer Bauarbeit an einem Baustellenobjekt. Er umfasst eine mobile Plattform (12) und einen relativ zur mobilen Plattform Manipulator (18) und eine zumindest teilweise an der mobilen Plattform (12) angeordnete und / oder ausgebildete optische Sensorik (62), und eine Steuereinheit (38), die eingerichtet ist, unter Verwendung der optischen Sensorik (62) eine Position und / oder eine Lage des Manipulators (18), insbesondere eines am Manipulator (18) angeordneten Werkzeugs, relativ zur mobilen Plattform (12) zu bestimmen. Weiter betrifft die Erfindung ein Verfahren (1000) zur Kalibrierung eines Bauroboters (10). Durch die Erfindung wird ein kostengünstig, besonders präzise arbeitender Bauroboter (10) zur Verfügung gestellt.

Description

Verfahren zur Kalibrierung eines Bauroboters und Bauroboter
Beschreibung
Die Erfindung betrifft einen Bauroboter zur Ausführung einer Bauarbeit an einem Baustellenobjekt, umfassend eine mobile Plattform und einen relativ zur mobilen Plattform beweglichen Manipulator. Des Weiteren betrifft die Erfindung ein Verfahren zur Kalibrierung eines Bauroboters.
Bauarbeiten auf Baustellen sind oftmals mit einer hohen Positionsgenauigkeit auszuführen. Beispielsweise sind Bohrungen an Decken häufig mit Positionsgenauigkeiten von 0,5 cm oder besser auszuführen, damit beispielsweise an den Decken anzuordnende Deckenelemente an den Bohrungen ordnungsgemäß fixiert werden können.
Um derartige Positionsgenauigkeiten mit einem Bauroboter zu erreichen, der mit Hilfe eines Manipulators eine solche Bauarbeit ausführen soll, sollte der Manipulator ebenfalls mit hoher Präzision steuerbar sein. Insbesondere sollten Bewegungen des Manipulators relativ zu einer mobilen Plattform des Bauroboters präzise und insbesondere in vorhersehbarer Weise steuerbar sein. Üblicherweise weist der Manipulator Stellglieder auf, beispielsweise Schrittmotoren, mit denen eine gewünschte Stellung des Manipulators angefahren werden kann. Aufgrund von Fertigungstoleranzen kann es dabei jedoch zu systematischen, für den jeweiligen Manipulator spezifischen Abweichungen zwischen der gewünschten und der tatsächlich angefahrenen Stellung, jeweils relativ zur Position und Lage der mobilen Plattform gemessen, kommen. Vor einem ersten Einsatz eines Bauroboters bzw. seines Manipulators wird daher bislang der Manipulator kalibriert, insbesondere werden Kalibrierungsdaten zur Kalibrierung von Stellbewegungen des Manipulators erzeugt, aus denen später Korrekturinformationen abgeleitet werden, um spätere Stellbewegungen entsprechend zu korrigieren.
Bislang erfolgt die Kalibrierung, indem ein geeichtes Duplikat des zu kalibrierenden Manipulators mit dem Manipulator verbunden wird. Während des Abfahrens mehrerer Stellungen werden jeweils die vom Manipulator und dem Duplikat ermittelten Positions- und Lagedaten erfasst und miteinander verglichen.
Diese Methode erfordert jedoch ein solches geeichtes Duplikat, wodurch sich die Kosten für die Kalibrierung erheblich erhöhen. Auch kann die Kalibrierung nur am Standort des Duplikats, in der Regel eine Fertigungsstätte oder eine Reparaturwerkstätte, nicht aber eine Baustelle, auf der der Bauroboter eingesetzt werden soll, erfolgen. Wenn beispielsweise in Folge von Beschädigungen oder von Abnutzung der Manipulator zu erneuern ist, kann ein solcher Austausch aufgrund der Kalibrierung zudem in der Regel nicht direkt vor Ort erfolgen.
Aufgabe der vorliegenden Erfindung ist es daher, einen kostengünstigen Bauroboter anzubieten, der Bauarbeiten mit einer besonders hohen Positionsgenauigkeit ausführen kann. Weiter soll ein Verfahren zur Kalibrierung eines Bauroboters vorgestellt werden, durch das ein Bauroboter auf besonders einfache und kostengünstige Weise, auch vor Ort, kalibrierbar ist.
Gelöst wird die Aufgabe durch einen Bauroboter zur Ausführung einer Bauarbeit an einem Baustellenobjekt, umfassend eine mobile Plattform und einen relativ zur mobilen Plattform beweglichen Manipulator, und eine zumindest teilweise an der mobilen Plattform angeordnete und / oder ausgebildete optische Sensorik und eine Steuereinheit, die eingerichtet ist, unter Verwendung der optischen Sensorik eine Position und / oder eine Lage des Manipulators, insbesondere eines am Manipulator angeordneten Werkzeugs, relativ zur mobilen Plattform zu bestimmen. .
Durch Verwendung einer optischen Sensorik können Stellungen auch eines noch unkalibrierten Manipulators weitgehend frei von, insbesondere mechanisch bedingten, Fertigungstoleranzen bestimmt werden. Durch zumindest teilweise Anordnung der optischen Sensorik an der mobilen Plattform können diese Stellungen an beliebigen Orten bestimmt werden.
Externe Zusatzgeräte, insbesondere geeichte Duplikate, sind nicht erforderlich. Somit kann beispielsweise ein Ersatz-Manipulator auch direkt vor Ort auf einer Baustelle, auf der der zugehörige Bauroboter eingesetzt werden soll, kalibriert werden.
Die Kalibrierung kann somit mit stets verfügbaren Bordmitteln erfolgen. Insofern kann ein solcher Bauroboter auch als kalibrationsfreier Bauroboter, insbesondere im Sinne, dass es einer Kalibration mit externen Zusatzgeräten nicht bedarf, verstanden werden.
Ein Vorteil des Bauroboters ist es, dass dieser eine Position und / oder Lage des Manipulators, insbesondere des Werkzeugs, relativ zur mobilen Plattform selbsttätig und unabhängig von mechanischen Eigenschaften des Manipulators ermitteln kann. Wird somit der Manipulator getauscht, bedarf es keiner Kalibrierung mit Zusatzgeräten oder allenfalls weniger Kalibrierungsmaßnahmen, um das Werkzeug mit dem ausgetauschten Manipulator präzise an gewünschte Positionen zu steuern. Auch kann, beispielsweise in einer Rückkoppelungsschleife, der Manipulator bewegt werden und die erreichte Position des Manipulators und / oder des Werkzeugs mit Hilfe der Sensorik relativ zur mobilen Plattform bestimmt werden. Weicht die erreichte Position von einer Sollposition ab, kann eine Korrekturbewegung des Manipulators wiederholt erfolgen, bis die Sollposition erreicht ist.
Unter einer optischen Sensorik kann dabei eine Sensorik verstanden werden, die auf einer Detektion elektromagnetischer Wellen basiert. Denkbar ist beispielsweise eine Sensorik, die auf sichtbarem und / oder infrarotem Licht und / oder auf Mikrowellen basiert.
Der Bauroboter kann einen Endeffektor aufweisen. Der Endeffektor kann wenigstens ein Werkzeug oder eine Werkzeugaufnahme zur Aufnahme eines Werkzeugs aufweisen. Der Endeffektor und die mobile Plattform können über den Manipulator miteinander verbunden sein. Insbesondere kann am Endeffektor eine Werkzeugschnittstelle zur Halterung des Werkzeugs und / oder zur Energieübertragung und / oder zur Datenübertragung von und / oder zum Werkzeug angeordnet und / oder ausgebildet sein.
Unter einem Werkzeug kann ein Einsatzwerkzeug wie beispielsweise ein Markierwerkzeug, ein Bohrer, ein Meißel, ein Sägeblatt oder ein Schleifwerkzeug, verstanden werden. Es kann alternativ oder ergänzend auch unter einem Werkzeug eine Werkzeugmaschine, insbesondere eingerichtet zur Aufnahme und / oder Nutzung eines Werkzeugs, beispielsweise eine Markiermaschine, beispielsweise eine steuerbare Farbsprühdüse, eine Bohrmaschine, insbesondere eine Gesteinsbohrmaschine, beispielsweise ein Bohrhammer, eine Meißelmaschine, eine Schleifmaschine oder dergleichen, verstanden werden.
Die optische Sensorik kann mehrteilig ausgebildet sein. Insbesondere kann sich ein Teil am Manipulator, am Endeffektor und / oder am Werkzeug befinden. Wenigstens ein anderer Teil kann sich an der mobilen Plattform befinden. So kann die optische Sensorik besonders einfach eingerichtet sein, die Stellung des Manipulators anhand des erstgenannten Teils mit hoher Präzision relativ zur mobilen Plattform, entsprechend dem wenigstens einen anderen Teil, zu bestimmen. Die optische Sensorik kann beispielsweise einen Laserdistanzmesser umfassen. Sie kann alternativ oder ergänzend wenigstens eine Bildaufnahmeeinheit umfassen. Beispielsweise kann die Bildaufnahmeeinheit eine Schwarzweiß- und / oder eine Farbbildkamera umfassen.
Ergänzend zur optischen Sensorik kann der Bauroboter eine nichtoptische Sensorik aufweisen. Die Steuereinheit kann dann eingerichtet sein, eine Position und / oder eine Lage des Manipulators, insbesondere eines am Manipulator angeordneten Werkzeugs, unter Verwendung der nichtoptischen Sensorik relativ zur mobilen Plattform zu bestimmen. Dann ist zumindest temporär eine Stellungsbestimmung auch möglich, wenn beispielsweise kein freier Sichtkontakt zwischen verschiedenen Teilen der optischen Sensorik besteht. Die nichtoptische Sensorik kann beispielsweise eine mechanische Sensorik sein. Sie kann zum Beispiel eingerichtet sein, Stellungen einzelner Gelenke des Manipulators zu bestimmen. Sie kann dazu wenigstens einen propriozeptiven Sensor umfassen.
Weist der Bauroboter einen Lagesensor zur Erfassung einer Lage des Bauroboters auf, beispielsweise in Form eines Beschleunigungssensors, können zusätzlich Neigungswinkel des Bauroboters relativ zu einem Untergrund, auf dem sich der Bauroboter befindet, und / oder relativ zur Horizontalen bestimmt werden. Somit lässt sich eine Arbeitsposition, beispielsweise eine zu erreichende Bohrposition an einer Wand oder einer Decke, mit dem Manipulator und insbesondere mit dem Werkzeug noch genauer anfahren, da eventuelle Kippmomente, insbesondere bei weiter Streckung des Manipulators, relativ zum Untergrund und / oder zur Horizontalen bestimmt und kompensiert werden können.
Dazu kann der Lagesensor eingerichtet sein, eine Lage der mobilen Plattform und / oder des Manipulators, insbesondere des Endeffektors, beispielsweise relativ zu einer Horizontalen und / oder einer Vertikalen, zu bestimmen. Dementsprechend kann er an der mobilen Plattform und / oder am Manipulator, insbesondere am Endeffektor, angeordnet sein.
Der Lagesensor kann beispielsweise einen Beschleunigungssensor sein und / oder einen solchen aufweisen. Der Beschleunigungssensor kann insbesondere am Endeffektor und / oder an der mobilen Plattform ausgebildet sein. Der Beschleunigungssensor kann eingerichtet sein, Beschleunigungen entlang wenigstens einer Richtung, vorzugsweise zweidimensional, besonders bevorzugt dreidimensional, zu erfassen. Durch die Sensorik und / oder den Beschleunigungssensor erfasste Änderungen der Position und / oder Lage können durch eine Stellvorrichtung des Bauroboters kompensierbar sein.
Am Bauroboter, insbesondere am Endeffektor und / oder am Manipulator, kann eine Lokalisationskennzeichnung, beispielsweise in Form einer AruCo-Markierung, angeordnet und / oder ausgebildet sein. Insbesondere kann die optische Sensorik die Lokalisationskennzeichnung umfassen.
Beispielsweise die Bildaufnahmeeinheit kann dann berührungslos und mit hoher Frequenz die Position und / oder Lage, insbesondere mit hoher Genauigkeit, erfassen. Dazu kann die Steuereinheit durch Bildverarbeitung von mit der Bildaufnahmeeinheit aufgenommenen Bildern die Lokalisationskennzeichnung identifizieren und lokalisieren.
Insgesamt kann eine solche optische Sensorik ein geringes Gewicht aufweisen. Insbesondere die Lokalisationskennzeichnung kann ein geringes Gewicht aufweisen, sodass am Manipulator bzw. am Endeffektor durch die optische Sensorik nur geringe Zusatzlasten wirken. Eine solche optische Sensorik kann auch besonders kostengünstig sein, da auf kostenrelevante Präzisionselemente wie beispielsweise Präzisionswinkelmesseinheiten oder LIDAR-Scanner verzichtet werden kann.
Um eine kontinuierliche Überwachung der Position und / oder Lage zu ermöglichen, kann die Lokalisationskennzeichnung zumindest teilweise, vorzugsweise vollständig, in einem Sichtfeld der Bildaufnahmeeinheit angeordnet sein.
Der Manipulator kann wenigstens drei, bevorzugt wenigstens sechs, Freiheitsgrade aufweisen. Die Freiheitsgrade können insbesondere relativ zur mobilen Plattform bestehen. Wenigstens drei Freiheitsgrade ermöglichen es - ohne Schwenken der mobilen Plattform von der Vertikalen in die Horizontale oder umgekehrt - an Decken oder Wänden zu arbeiten. Mit sechs Freiheitsgraden kann ohne Schwenken der mobilen Plattform sowohl an Decken als auch an Wänden gearbeitet werden. Auch können dadurch Bauarbeiten an sonst schwer erreichbaren Positionen, beispielsweise wenn ansonsten bei weniger Freiheitsgraden durch Installationselemente wie beispielsweise Leitungen oder Kabelführungen der Weg zur gewünschten Position versperrt wäre, ausgeführt werden.
Der Endeffektor kann zusätzlich weitere Freiheitsgrade bieten. Beispielsweise kann am Endeffektor ein teleskopierbares Element angeordnet sein, mit dem beispielsweise das Werkzeug relativ zum Endeffektor bewegbar ist.
Das Werkzeug kann beispielsweise ein Markierwerkzeug, ein Bohrwerkzeug, ein Meißelwerkzeug, ein Schleifwerkzeug und / oder ein Schneidwerkzeug, insbesondere ein Sägeblatt, sein und / oder umfassen.
Allgemein kann der Bauroboter zur Ausführung von Arbeiten im Hoch-Tiefbau und / oder Anlagenbau eingerichtet sein. Gerade bei derartigen Baustellen ist oftmals eine Vor-Ort- Kalibrierung besonders wichtig, jedoch bislang nur sehr schwierig durchführbar.
Bauarbeiten in besonders großen Höhen, insbesondere an Decken von Hallen, können ermöglicht werden, wenn die mobile Plattform eine Flugplattform ist. Die Flugplattform kann eine Drohne sein. Sie kann wenigstens einen Propeller aufweisen. Dabei kann Fliegen auch Schweben in der Luft umfassen.
Die mobile Plattform kann zur kabelgebundenen und / oder zur kabelungebundenen Ausführung von Bauarbeiten eingerichtet sein. Beispielsweise kann sie während eines Betriebes an eine Versorgungsleitung angeschlossen sein. Alternativ oder ergänzend kann sie auch einen Akkumulator, insbesondere Lithium-basiert, aufweisen. Denkbar ist auch, dass die mobile Plattform eine Brennstoffzelle aufweist.
Alternativ oder ergänzend ist auch denkbar, dass die mobile Plattform eine fahrbare Plattform, beispielsweise ein Kettenfahrzeug und / oder ein Räderfahrzeug, umfasst und / oder als solche ausgebildet ist.
Zur Vergrößerung ihrer Reichweite in der Vertikalen kann die mobile Plattform, insbesondere wenn sie als fahrbare Plattform ausgebildet ist, eine Hubvorrichtung aufweisen.
Der Bauroboter, insbesondere der Endeffektor kann einen Laserdistanzmesser aufweisen. In diesem Fall kann auf der Baustelle wenigstens eine Positionsmarkierung, angeordnet sein, sodass eine Position und / oder Lage des Bauroboters relativ zur Positionsmarkierung, bevorzugt zu mehreren Positionsmarkierungen, bestimmbar ist. Alternativ oder ergänzend kann er eingerichtet sein, von einer Totalstation zur Bestimmung seiner Position und / oder Lage erfasst zu werden. Dazu kann der Bauroboter beispielsweise einen Reflektor, zum Beispiel in Form eines Prismas, aufweisen. Somit kann eine Position und / oder eine Stellung des Bauroboters, insbesondere eine Position und / oder eine Lage, relativ zu einem absoluten Bezugssystem der Baustelle und / oder der Totalstation bzw. der wenigstens einen Positionsmarkierung, ermittelt werden.
Aufgrund von Verdeckungen befinden sich Arbeitspositionen, an denen die Bauarbeit ausgeführt werden soll und zu denen daher das Werkzeug oder zumindest eine Spitze des Werkzeugs zu bringen ist, oftmals nicht im Sichtbereich der Totalstation. Daher kann der Reflektor beziehungsweise der Laserdistanzmesser an der mobilen Plattform angeordnet sein, zu der oftmals eher eine Sichtverbindung herstellbar ist. Somit ist dann zumindest eine Position und / oder Lage der mobilen Plattform erfassbar und darüber bei Kenntnis des relativen Versatzes der mobilen Plattform zum Endeffektor, insbesondere zur Spitze des Werkzeugs, auch eine Position und / oder Lage des Endeffektors, insbesondere eine Position und / oder Lage der Spitze des Werkzeugs, ermittelbar.
In den Rahmen der Erfindung fällt auch ein Verfahren zur Kalibrierung eines Bauroboters der vorangehend und / oder nachfolgend beschriebenen Art, wobei Kalibrierungsdaten zur Kalibrierung von Stellbewegungen des Manipulators erzeugt werden, in dem der Manipulator in wenigstens eine erste und anschließend in eine zweite Stellung gebracht wird, und bei Erreichen der jeweiligen Stellung jeweils wenigstens eine Position und / oder Lage des Manipulators, insbesondere eines am Manipulator angeordneten Werkzeugs, relativ zur mobilen Plattform, unter Verwendung der zumindest teilweise an der mobilen Plattform des Bauroboters angeordneten und / oder ausgebildeten optischen Sensorik bestimmt werden.
Da zur Ausführung des Verfahrens lediglich Bordmittel benötigt werden, kann der Bauroboter verfahrensgemäß auch vor Ort, beispielsweise auf einer Baustelle, kalibriert werden. Es werden keine besonders kostenintensiven Bauteile benötigt, sodass das Verfahren besonders kostengünstig ausgeführt werden kann.
Bei einer Variante des Verfahrens kann wenigstens eine der Positionen und / oder Lagen bestimmt werden, indem erste Bilddaten einer am Manipulator angeordneten und / oder ausgebildeten Lokalisationskennzeichnung und zweite Bilddaten einer in einer Umgebung des Bauroboters angeordneten und / ausgebildeten externen Lokalisationskennzeichnung aufgezeichnetund ausgewertet werden. Die ersten und zweiten Bilddaten können insbesondere von der mobilen Plattform aus aufgezeichnetwerden, beispielsweise wenn die Bildaufnahmeeinheit an der mobilen Plattform angeordnet und / oder ausgebildet ist. Vorzugsweise ist die externe Lokalisationskennzeichnung zumindest temporär, insbesondere während einer laufenden Kalibrierung, relativ zur Umgebung ortsfest ruhend angeordnet.
Die zusätzliche Nutzung der zweiten Bilddaten ermöglicht es insbesondere auch, Kippbewegungen des gesamten Bauroboters relativ zur Umgebung und Abhängig von den Bewegungen des Manipulators, insbesondere abhängig von seiner jeweiligen Streckung, zu erfassen. Insofern kann auf diese Weise die Nutzung eines Lagesensors ergänzt oder ersetzt werden.
Weiter ist denkbar, dass die anzufahrenden Stellungen bestimmten Positionen des Manipulators und / oder des Werkzeugs relativ zur externen Lokalisationskennzeichnung entsprechen.
Denkbar ist beispielsweise, dass eine Werkzeugspitze bestimmte Positionen auf der externen Lokalisationskennzeichnung berühren soll. Aus der Kenntnis des Aussehens der Lokalisationskennzeichnung in Verbindung mit den zweiten Bilddaten kann dann auf besonders einfache und wenig rechenaufwändige Weise eine Bildverarbeitung erfolgen. Die Positionen und / oder Lagen der jeweiligen Stellungen und insbesondere Abweichungen dieser Positionen und / oder Lagen von Sollwerten lassen sich dadurch mit besonders hoher Präzision erfolgen.
Um technische Anforderungen an beispielsweise die Bildaufnahmeeinheit gering zu halten,
Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden detaillierten Beschreibung von Ausführungsbeispielen der Erfindung, anhand der Figuren der Zeichnung, die erfindungswesentliche Einzelheiten zeigt, sowie aus den Ansprüchen. Die dort gezeigten Merkmale sind nicht notwendig maßstäblich zu verstehen und derart dargestellt, dass die erfindungsgemäßen Besonderheiten deutlich sichtbar gemacht werden können. Die verschiedenen Merkmale können je einzeln für sich oder zu mehreren in beliebigen Kombinationen bei Varianten der Erfindung verwirklicht sein.
In der schematischen Zeichnung sind Ausführungsbeispiele der Erfindung dargestellt und in der nachfolgenden Beschreibung näher erläutert.
Es zeigen:
Fig. 1 einen Bauroboter mit einer Flugplattform, der an einer Decke eine Bauaufgabe ausführt,
Fig. 2 eine Endeffektor-Plattform des Bauroboters,
Fig. 3 eine Lokalisationskennzeichnung,
Fig. 4 einen Bauroboter mit einer fahrbaren Plattform,
Fig. 5 einen weiteren Bauroboter mit einer fahrbaren Plattform und
Fig. 6 ein Verfahren zur Kalibrierung eines Bauroboters.
In der nachfolgenden Beschreibung der Figuren werden zur Erleichterung des Verständnisses der Erfindung für gleiche oder sich funktional entsprechende Elemente jeweils die gleichen Bezugszeichen verwendet.
Fig. 1 zeigt einen Bauroboter 10, der an einer Decke 100, also an einem Baustellenobjekt, eines im Bau befindlichen Gebäudes, insbesondere auf einer in dem Gebäude befindlichen Baustelle, eine Bauaufgabe ausführt. Die Bauaufgabe besteht darin, Markierungen entsprechend vorliegenden CAD-Planungsdaten an der Unterseite der Decke 100 zu markieren.
Der Bauroboter 10 ist als Drohne, d. h. als unbemanntes Flugobjekt, ausgebildet. Dazu weist er eine mobile Plattform 12 in Form eines Hexakopters auf. An der mobilen Plattform 12 ist eine Endeffektor-Plattform 14 angeordnet.
Fig. 2 zeigt die Endeffektor-Plattform 14 in einer perspektivischen Ansicht von der Seite.
Die Endeffektor-Plattform 14 umfasst einen Endeffektor 16. Der Endeffektor 16 ist über einen Manipulator 18, insbesondere einen Parallelmanipulator, des Bauroboters 10 mit der mobilen Plattform 12 verbunden.
Der Bauroboter 10 ist eingerichtet, Markierungen gemäß an den Bauroboter 10 übermittelten CAD-Daten auf der Decke 100 zu markieren. Dazu weist der Endeffektor 16 einen Markierstift 20 auf.
Der Markierstift 20 ist auf einer Hubvorrichtung 22 angeordnet. Somit kann der Markierstift 20 in der in Fig. 1 dargestellten Stellung des Bauroboters 10 zur Decke 100 hin und / oder von dieser weg bewegt werden, insbesondere ohne die Endeffektor-Plattform 14 insgesamt bewegen zu müssen. Diese Bewegungsmöglichkeit ist in Fig. 2 mit einem Doppelpfeil symbolisiert. Der Markierstift 20 ist als Farbstift ausgebildet, sodass er eine Farbmarkierung auf die Decke 100 aufbringen kann, sobald er die Decke 100 berührt. Um einen adäquaten Farbauftrag zu ermöglichen und den Markierstift 20 vor zu großen mechanischen Belastungen zu schützen, kann der Markierstift 20 federnd, beispielsweise mittels eines Schaummaterials und / oder eines Metallelements, an der Hubvorrichtung 22 angeordnet sein. Der Markierstift 20 stellt somit ein Markierwerkzeug dar, das in einer Werkzeugaufnahme (in der Darstellung gemäß Fig. 2 nicht sichtbar), die wiederum an der Hubvorrichtung 22 angeordnet ist, aufgenommen ist.
Der Endeffektor 16 weist ferner drei Kontaktelemente 24 auf. Die Kontaktelemente 24 sind als Räder, insbesondere als omnidirektionale Räder, ausgebildet. Wie insbesondere auch anhand von Fig. 1 erkennbar ist, kontaktieren die Kontaktelemente 24 während der Ausführung der Bauaufgabe, also während des Markierens der Decke 100, die Decke 100. Sie sind durch Motoren 26 jeweils einzeln antreibbar. Somit lässt sich der Endeffektor 16 mit Hilfe der motorisch antreibbaren Kontaktelemente 24, also in diesem Ausführungsbeispiel mit Hilfe der omnidirektionalen Räder, entlang der Decke 100 (Fig. 1) zumindest entlang zweier Dimensionen bewegen.
Der Manipulator 18 ist als Hexapod ausgebildet. Er weist sechs Stützarme 28 auf. Die Stützarme 28 sind in diesem Ausführungsbeispiel nicht angetrieben, sind aber an Lagerstellen des Endeffektors 16 einerseits sowie an Lagerstellen einer unter dem Endeffektor 16 befindlichen Befestigungsvorrichtung 30 drehbar gelagert. Somit ist der Endeffektor 16 relativ beweglich zur Befestigungsvorrichtung 30, insbesondere mit wenigstens 6 Freiheitsgraden, bewegbar, aber dennoch durch die Stützarme 28 gestützt. Der Manipulator 18 ist somit als passives System ausgebildet.
Die Stützarme 28 sind als, insbesondere fluid-gedämpfte, Stoßdämpfer ausgebildet. Zur Dämpfung weisen sie einen fluid-befüllten, insbesondere mit Wasser befüllten, Kolben sowie außenseitig angeordnete Federelemente auf. Die Kolben zusammen mit den jeweiligen Federelementen bilden somit Dämpfungselemente. Zusätzlich sorgen die Federelemente bei Auslenkung des Endeffektors 16 relativ zur Befestigungsvorrichtung 30 aus einer Ruhelage heraus für eine selbsttätige Rückstellung in die Ruhelage. Die Federhärten der Stützarme 28 können dabei so eingestellt sein, dass sie durch das Eigengewicht des Endeffektors 16 oder, alternativ, durch das Eigengewicht des Endeffektors 16 zuzüglich einer zu erwarteten Zusatzlastkraft, beispielsweise 15 N, in der Ruhelage in etwa bis zur Hälfte der Gesamtlänge der Stützarme 28 eingefahren sind. Sie können ausgehend von der Ruhelage so eingerichtet sein, dass der Endeffektor 16 hinreichend weit bewegbar ist, beispielsweise um jeweils 2 bis 4 cm in einer x- und einer y-Richtung einer zum Endeffektor 16 parallelen Ebene, sein.
Die Stützarme 28 sind derart angeordnet, dass sich die Endeffektor-Plattform 14 in der Ruhelage in einem stabilen Zustand befindet. Insbesondere sind die Stützarme 28 derart angeordnet, dass der Endeffektor 16 nicht von selbst zu einer Seite hin abkippt.
Für eine derartige stabile Ruhelage geeignete Positionen und / oder Lagen für die Stützarme 28 lassen sich finden, indem eine Gesamtenergiebilanz der Anordnung, insbesondere umfassend eine Lageenergie des Endeffektors sowie gegebenenfalls der Stützarme 28 in Abhängigkeit von seiner bzw. deren Position und / oder Lage sowie eine Spannenergie der Federelemente der Stützarme 28, erstellt wird und ein möglichst globales, mindestens jedoch lokales Minimum der Gesamtenergie in Abhängigkeit von der Positionierung und / oder Ausrichtung der Stützarme 28 gesucht wird.
Die Befestigungsvorrichtung 30 dient zur Befestigung der Endeffektor-Plattform 14 an der mobilen Plattform 12 (siehe Fig. 1). Die Befestigung kann lösbar ausgebildet sein, sodass die Endeffektor-Plattform 14 auch nachträglich noch auf anderen mobilen Plattformen, beispielsweise Octakoptern oder auf einer bodengestützten mobilen Plattform, beispielsweise einem Räder- und / oder Kettenfahrwerk, montierbar ist.
Die Befestigungsvorrichtung 30 bildet eine untere Eben unterhalb des Endeffektors 16. Sie weist eine Beleuchtung 32 sowie eine Kamera 34 auf. Die Kamera 34 ist eine Bildaufnahmeeinheit.
Die Beleuchtung 32 und die Kamera 34 sind nach oben hin, also auf die Unterseite des Endeffektors 16 hin, ausgerichtet. An der Unterseite des Endeffektors 16, insbesondere im Sichtfeld der Kamera 34, befindet sich eine Lokalisationskennzeichnung 36.
Fig. 3 zeigt beispielhaft ein von der Kamera 34 aufgezeichnetes Bild der Lokalisationskennzeichnung 36. Die Lokalisationskennzeichnung 36 weist ein Schachbrettartiges Muster von Passermarken, beispielsweise in Form von ArUco-Markierungen, auf. Andere Ausführungen der Lokalisationskennzeichnung sind auch denkbar. Vorzugsweise sollte die Lokalisationskennzeichnung derart gestaltet sein, dass sie selbst mit hoher Sensitivität und Spezifität identifizierbar und insbesondere von einer Umgebung wie sie auf Baustellen typisch ist, unterscheidbar ist. Zudem sollte sie vorzugsweise zumindest eine gut identifizierbare Strecke bekannter Länge aufweisen, sodass zumindest diese Strecke zur Kalibrierung von Distanzschätzungen genutzt werden kann. Allgemein sollte die Lokalisationskennzeichnung durch Bildverarbeitung identifizierbar und lokalisierbar sein. Vorzugsweise weist die Lokalisationskennzeichnung wenigstens ein zweidimensionales Muster auf, sodass ihre Lage oder Orientierung im Raum ebenfalls durch Bildverarbeitung bestimmbar ist. Demgemäß ist auch denkbar, dass als Lokalisationskennzeichnung ein mitbewegter, sichtbar angeordneter Teil des Manipulators und / oder des Werkzeugs als Lokalisationskennzeichnung verwendet wird, sofern dessen Gestalt, insbesondere wenigstens eine Abmessung, bekannt und konstant ist und das Teil die vorangehend genannten Anforderungen an seine Identifizierbarkeit und Lokalisierbarkeit erfüllt.
Eine Steuereinheit 38, in Fig. 2 schematisch dargestellt, ist eingerichtet, von der Kamera 34 aufgenommene Bilder auszuwerten und durch Bildverarbeitung aus Art, Größe, Lage und / oder Position von erkannten Elementen Lokalisationskennzeichnung, hier beispielsweise die Passermarken, eine Position und / oder Lage des Endeffektors 16 relativ zur Befestigungsvorrichtung 30 zu ermitteln.
Weiter ist an der Befestigungsvorrichtung 30 ein Reflexionselement 40 angeordnet, das eingerichtet ist, beispielsweise von einer, insbesondere außerhalb des Bauroboters 10 befindlichen, Totalstation erfasst zu werden, sodass die Position und / oder Lage des Reflexionselements 40 und damit die Position und / oder die Lage der Befestigungsvorrichtung 30 relativ zu einem umgebungsbezogenen Ursprung ermittelbar ist.
Die Steuereinheit 38 kann eingerichtet sein, von einer solchen Totalstation Positions- und / oder Lagedaten zu erhalten und daraus in Verbindung mit der ermittelten relativen Position und / oder Lage des Endeffektors 16 relativ zur Befestigungsvorrichtung 30 eine absolute Position und / oder Lage des Endeffektors 16 und damit auch unter Berücksichtigung der Stellung der Hubvorrichtung 22 eine Position und / oder Lage des Markierstifts 20 relativ zur Totalstation, zur Decke 100 und / oder zu einem anderen ortsfesten Bezugssystem der Baustelle zu ermitteln.
Die Steuereinheit 38 kann einen Mikrocontroller umfassen. Sie kann insbesondere einen Mikroprozessor und auf dem Mikroprozessor ausführbaren, in einer Speichereinheit der Steuereinheit 38 gespeicherten, Programmcode aufweisen. Um eine möglichst weitgehende Autarkie der Endeffektor-Plattform 14 zu erreichen, kann die Endeffektor-Plattform 14 noch eine von der mobilen Plattform 12 unabhängige Energiequelle, beispielsweise einen wiederaufladbaren Akkumulator, aufweisen.
Die Steuereinheit 38, die Kamera 34 sowie die Lokalisationskennzeichnung 36 bilden eine optische Sensorik, die eingerichtet ist, eine Position und / oder Stellung des Endeffektors 16 relativ zur mobilen Plattform 12 zu erfassen.
Der Endeffektor 16 kann femer einen, beispielsweise dreidimensional messenden, Beschleunigungssensor 42 aufweisen (in Fig. 2 lediglich schematisch dargestellt). Somit können Beschleunigungen des Endeffektors 16 gemessen werden. Mit Hilfe der gemessenen Beschleunigungen kann die Ermittlung der Position und / oder Lage des Endeffektors 16 und damit des Markierstifts 20, insbesondere durch die Steuereinheit 38, weiter verbessert werden.
Fig. 4 zeigt einen weiteren Bauroboter 10. Bei diesem Ausführungsbeispiel weist der Bauroboter 10 eine mobile Plattform 12 in Form einer fahrbaren Plattform, insbesondere ein als Kettenfahrwerk ausgebildetes Fahrwerk, auf.
In einem Gehäuse 44 ist ein (in Fig. 4 lediglich schematisch darstellbarer) Steuerraum 46 ausgebildet. Oberseitig des Gehäuses 44 befindet sich ein Manipulator 18. Der Manipulator 18 ist als multiaxial steuerbarer Arm ausgebildet, an dessen freien Ende ein Endeffektor 16 mit einem Werkzeug, insbesondere in Form einer Bohrwerkzeugmaschine 48 und einer Staubabsaugungsvorrichtung 50, angeordnet ist. Zur Vergrößerung der Reichweite weist der Manipulator 18 eine Hubvorrichtung 22 auf, mit der der übrige Teil des Manipulators 18 vertikal verlagerbar ist.
Der Bauroboter 10 ist nicht auf diese Ausgestaltung beschränkt. Insbesondere kann er anstelle oder ergänzend zur Bohrwerkzeugmaschine 48 ein oder mehrere andere elektrische Werkzeugmaschinen und / oder ein oder mehrere weitere Vorrichtungen zur Erledigung von Bauaufgaben, insbesondere zur Erledigung von Inspektionsaufgaben, ein Messwerkzeug wie beispielsweise einen Bildsensor und / oder einen Längenmesser, beispielsweise einen Laufzeitdistanzmesser oder ein LIDAR, ein Schneidwerkzeug, ein Bohrwerkzeug, ein Schleifwerkzeug oder ein anderes zur Erledigung von Bauaufgaben geeignetes Werkzeug umfassen. Der Bauroboter 10 ist zur Ausführung von Bauaufgaben, insbesondere von Bohrarbeiten in Decken und Wänden, auf einer Baustelle, beispielsweise auf einer Hochbaubaustelle, ausgebildet. Neben dem Manipulator 18 zur Ausführung der dem Bauroboter 10 zugeordneten Bauaufgaben, weist er eine innerhalb des Gehäuses 14, insbesondere im Steuerraum 16, angeordnete Steuereinheit 38 auf. Die Steuereinheit 38 umfasst einen Mikrocontroller 52.
Die Steuereinheit 38 ist mit ausführbarem Programmcode 56 ausgestattet, der in einer Speichereinheit 54 des Mikrocontrollers 52 ausführbar abgelegt ist.
Der Programmcode 56 ist derart eingerichtet, dass der Bauroboter 10 bei Ausführung des Programmcodes 56 auf dem Mikrocontroller 52 eine Kalibrierung des Manipulators 18 gemäß dem im Zusammenhang mit Fig. 6 beschriebenen Verfahren durchführt.
Die Steuereinheit 38 weist ferner eine Kommunikationsschnittstelle 58 zur Kommunikation mit einem entfernten Rechnersystem auf.
Da die Steuereinheit 38, der Mikrocontroller 52 mit der Speichereinheit 54 und dem Programmcode 56 und der Kommunikationsschnittstelle 58 im Steuerraum 46 und damit innerhalb des Gehäuses 44 angeordnet sind, sind diese einschließlich dem Steuerraum 46 in Fig. 4 lediglich schematisch dargestellt.
Weiter weist der Bauroboter 10 eine Anzeigeeinheit 60 auf, die als Touchscreen ausgebildet ist. Die Anzeigeeinheit 60 ist mit der Steuereinheit 38 verbunden. Über die Anzeigeeinheit 60 ist die Steuereinheit 38 bedienbar. Alternativ oder ergänzend kann die Steuereinheit 38 und damit der Bauroboter 10 auch fernsteuerbar sein, insbesondere durch Fernsteuerung über die Kommunikationsschnittstelle 58.
Am Endeffektor 16 ist eine Lokalisationskennzeichnung 36, vorzugsweise relativ zur Bohrwerkzeugmaschine 48 starr, angeordnet. Die Lokalisationskennzeichnung 36 kann der vorangehend in Zusammenhang mit Fig. 3 beschriebenen Lokalisationskennzeichnung 36 entsprechen.
Ein dem vorangehend beschriebenen Reflexionselement entsprechendes Reflexionselement 40 ist ebenfalls am Endeffektor 16 angeordnet. Denkbar ist auch, dass die Lokalisationskennzeichnung 36 als Teil und / oder nach Art des Reflexionselements 40 ausgebildet ist.
Eine Kamera 34 ist an der mobilen Plattform 12 angeordnet. Sie ist so eingerichtet, insbesondere derart angeordnet und / oder mit einem derartigen Sichtfeld ausgestattet, dass die Lokalisationskennzeichnung 36 zumindest bei wenigstens zwei verschiedenen, vorzugsweise bei allen in Frage kommenden, Stellungen des Manipulators 18, im Sichtfeld der Kamera 34 ist.
Die Kamera 34 und die Lokalisationskennzeichnung 36 bilden somit eine zumindest teilweise (wegen der Kamera 34) an der mobilen Plattform 12 angeordnete optische Sensorik 62, die eingerichtet ist, eine Position und / oder Stellung des Endeffektors 16 relativ zur mobilen Plattform 12 zu erfassen.
Anhand von mit der Kamera 34 gesammelten Bilddaten und mittels des Programmcodes 56 und unter Verwendung der optischen Sensorik 62 kann die Steuereinheit 38 somit eine Position und / oder eine Lage des Manipulators 18 bzw. des Endeffektors 16, insbesondere eines am Manipulator 18 angeordneten Werkzeugs, hier der Bohrwerkzeugmaschine 48, relativ zur mobilen Plattform 12 bestimmen.
Eine Lage der mobilen Plattform 12 lässt sich mittels eines Lagesensors in Form eines Beschleunigungssensors 42 ermitteln. Insbesondere können Winkeldaten wie beispielsweise Roll-, Nick- oder Gierwinkel der mobilen Plattform 12 mittels des Beschleunigungssensors 42 gemessen werden.
Der Programmcode 56 und damit die Steuereinheit 38 sind eingerichtet, mittels dieser Winkeldaten des Beschleunigungssensors 42 je nach Bedarf Kalibrierungsdaten zu modifizieren und / oder die Steuerung des Manipulators 18 zur Erreichung einer gewünschten Stellung geeignet zu korrigieren.
Der Bauroboter 10, insbesondere der Manipulator 18, weist ferner eine nichtoptische Sensorik 64 auf. Diese ist ebenfalls in Fig. 4 lediglich schematisch dargestellt. Sie ist eingerichtet, Stellungen sowie Stellungsänderungen der Gelenke des Manipulators 18 sowie dessen Hubvorrichtung 22 zu messen.
Der Programmcode 56 und damit die Steuereinheit 38 sind eingerichtet, auch mittels der nichtoptischen Sensorik 64 wenigstens eine Position und / oder eine Lage des Manipulators 18 und I oder Bohrwerkzeugmaschine 48 zu bestimmen. Somit ist denkbar, insbesondere bei Sichtverbindung zwischen der Lokalisationskennzeichnung 36 und der Kamera 34 die Bestimmung mittels der nichtoptischen Sensorik 64 mithilfe der optischen Sensorik 62 zu kalibrieren. Beispielsweise zur Ausführung einer Bauarbeit kann dann der Manipulator 18 unter Verwendung von Daten der so kalibrierten nichtoptischen Sensorik 64 durch die Steuereinheit 38 gesteuert werden.
Fig. 5 zeigt einen weiteren Bauroboter 10 mit einer fahrbaren Plattform als mobile Plattform 12. Diese Ausführungsform kann, soweit im Folgenden nicht anders beschrieben, der vorangehend beschriebenen Ausführungsform gemäß Fig. 4 entsprechen.
Bei diesem Bauroboter 10 kann, zumindest zur Kalibrierung des Manipulators 18, auf einen dem Beschleunigungssensor 42 (Fig. 4) entsprechenden Beschleunigungssensor verzichtet werden, wobei dennoch eine hohe Kalibrierungsgüte erreichbar ist.
Zu erkennen ist in Fig. 5 eine externe Lokalisationskennzeichnung 66. Auch die externe Lokalisationskennzeichnung 66 kann ein oder mehrere Passermarken, beispielsweise in Form von AruCo-Markern aufweisen. Beispielhaft sind drei Passermarken A, B, C abgebildet.
Die externe Lokalisationskennzeichnung 36 ist separiert vom Bauroboter 10 angeordnet. Sie kann sich beispielsweise an einer Decke 100 einer Baustelle, auf der der Bauroboter 10 eingesetzt werden soll, befinden. Grundsätzlich kann die externe Lokalisationskennzeichnung 66 ein oder mehrere der Merkmale der Lokalisationskennzeichnung 36 aufweisen.
Vorzugsweise ist die externe Lokalisationskennzeichnung 66 erheblich größer ausgebildet. Sie kann beispielsweise Abmessungen in der Größenordnung von 10° x 10° m2 aufweisen, wohingegen die Lokalisationskennzeichnung 36 Abmessungen in der Größenordnung von beispielsweise 10° x 10° cm2 aufweisen kann.
Sowohl die Lokalisationskennzeichnung 36 als auch die externe Lokalisationskennzeichnung 66 befinden sich vorzugsweise im Sichtfeld der Kamera 34. Die Kamera 34 kann somit erste Bilddaten 68 der Lokalisationskennzeichnung 36 und zweite Bilddaten 70 der externen Lokalisationskennzeichnung 66 aufzeichnen.
Schematisch ist in Fig. 5 ferner dargestellt, dass der Manipulator 18 mitsamt dem Endeffektor 16 in verschiedene Stellungen I, II, III gesteuert werden kann, wobei weiterhin die Lokalisationskennzeichnung 36 und weiterhin auch die relativ zu einer Umgebung des Bauroboters 10 ortsfest ruhende externe Lokalisationskennzeichnung 66 im Sichtfeld der Kamera 34 bleiben.
Auch bei diesem Bauroboter kann eine Kalibrierung des Manipulators 10 und insbesondere seiner nichtoptischen Sensorik 64 entsprechend dem nachfolgend beschriebenen Verfahren erfolgen.
Dazu zeigt Fig. 6 ein Verfahren 1000 zur Kalibrierung eines Bauroboters nach Art der vorangehend beschriebenen Bauroboter. Das Verfahren 1000 wird nachfolgend unter Bezugnahme auf die vorangehend eingeführten Bezugszeichen näher erläutert.
Das Verfahren soll am Beispiel erfolgen, dass der Manipulator 18 des Bauroboters 10 ausgetauscht worden sein und daher zu kalibrierende Fertigungstoleranzen zwischen Messwerten der nichtoptischen Sensorik 64 bzw. zugehörigen gewünschten Stellungen des Manipulators 18 und den tatsächlich angefahrenen Positionen und / oder Lagen des Manipulators 18 bestehen.
Denkbar ist auch alternativ oder ergänzend, dass die Kalibrierung nicht nur hinsichtlich der Stellung des eigentlichen Manipulators 18, sondern auch oder alternativ beispielsweise hinsichtlich der Stellung eines Werkzeugs, das beispielsweise mithilfe des Endeffektors 16 am Manipulator 18 angeordnet ist, beispielsweise hinsichtlich der Bohrwerkzeugmaschine 48, erfolgen kann.
Beispielhaft wird weiter angenommen, dass zur Kalibrierung lediglich drei Stellungen, insbesondere die Stellungen I, II und III, verwendet werden.
In einer Messphase 1010 wird nacheinander mithilfe von Stellbewegungen 1012 der Manipulator 18 in eine, insbesondere bislang noch nicht verwendete, der Stellungen I, II oder III gebracht.
Bei Erreichen der jeweiligen Stellung I, II oder III erfolgt jeweils eine Bestimmung 1014 der Position und der Lage des Manipulators 18 relativ zur mobilen Plattform 12 unter Verwendung der optischen Sensorik 62. Zusätzlich werden in jeder der Stellungen I, II oder III die Messwerte der (zu kalibrierenden) nichtoptischen Sensorik 64 erfasst. Dies wird solange wiederholt, bis alle zu analysierenden Stellungen, im Beispiel also insgesamt drei Stellungen, derart angefahren und deren Position und Lage bestimmt worden sind.
Zur Bestimmung 1014 können erste Bilddaten 68 der Lokalisationskennzeichnung 36 durch die Kamera 34 aufgezeichnet werden. Die ersten Bilddaten 68 können dann mithilfe einer Bildverarbeitung durch die Steuereinheit 38 ausgewertet werden und dadurch Distanz- und Orientierungsdaten zur Lage und zur Position der Lokalisationskennzeichnung 36 relativ zur Kamera 34, damit Daten zur Lage und Position des Manipulators 18 relativ zur mobilen Plattform 12 gewonnen werden. Zur Bestimmung absoluter Distanzen und Winkel können insbesondere bekannte Strecken, beispielsweise bestimmte Abmessungen, der Lokalisationskennzeichnung 36 der Abschätzung zugrunde gelegt werden. Beispielsweise kann mithilfe eines geeignet trainierten Deep Learning-Algorithmus zunächst die Lokalisationskennzeichnung 36 identifiziert werden. Aus der Art und Weise der perspektivischen Verzerrung der Abbildung der Lokalisationskennzeichnung 36 innerhalb der ersten Bilddaten 68 können dann eine relative Lage und eine relative Entfernung zur Kamera 34 abgeleitet werden. Aus diesen wiederum lassen sich die gewünschten Distanz- und Orientierungsdaten ableiten.
Sofern ein Lagesensor verfügbar ist, können dessen Messdaten bei der Bestimmung 1014 mitprotokolliert werden.
Sofern eine externe Lokalisationskennzeichnung 66 verfügbar ist, können mit der Kamera 34 auch zweite Bilddaten 70 gesammelt werden, in denen die externe Lokalisationskennzeichnung 66 abgebildet ist. Denkbar ist, dass, im Falle, dass sowohl die Lokalisationskennzeichnung 36 als auch die externe Lokalisationskennzeichnung 66 bereits beide in den ersten Bilddaten 68 zumindest in ausreichendem Umfang abgebildet sind, die ersten Bilddaten 68 auch als zweite Bilddaten 70 zu verwenden. Die Auswertung der zweiten Bilddaten 70 kann dabei analog zur Auswertung der ersten Bilddaten 68, hier lediglich bezogen auf die externe Lokalisationskennzeichnung 66, erfolgen.
In einer anschließenden Analyse 1020 werden dann die gesammelten Lage- und Positionsdaten der optischen Sensorik 62 einerseits und der nichtoptischen Sensorik 66 andererseits miteinander verglichen. Aus dem Vergleich können anschließend die gewünschten Kalibrierungsdaten abgeleitet werden. Soweit Winkeldaten des Lagesensors verfügbar sind, können diese in die Kalibrierungsdaten integriert werden, um entsprechende Kippbewegungen der mobilen Plattform 12 bei einer späteren Steuerung des Manipulators 38 zusätzlich zu kompensieren.
Wird eine externe Lokalisationskennzeichnung 66 verwendet, können Winkeldaten zu während der Kalibrierung erfolgenden Kippbewegungen auch ermittelt werden, indem Abweichungen der relativen Lagen und der Positionen der externen Lokalisationskennzeichnung 66, also zwischen verschiedenen Sätzen von zweiten Bilddaten 70, ausgewertet werden. Auch mit diesen Daten kann eine zusätzliche Kompensation von Kippbewegungen der mobilen Plattform 12 erfolgen.
Die gewonnenen Kalibrierungsdaten können später verwendet werden, um eine Steuerung des Manipulators 18 auf Basis von Messwerten der nichtoptischen Sensorik 64 zu modifizieren. Insbesondere kann die Steuerung derart modifiziert werden, dass eine unter Verwendung der nichtoptischen Sensorik 64 erreichte Zielstellung einer tatsächlich gewünschten Stellung entsprechend von Messwerten auf Basis der optischen Sensorik 62 als „Ground Truth“ entspricht. Mit anderen Worten können die Kalibrierungsdaten dann verwendet werden, um zuvor festgestellte Fertigungstoleranzen zu kompensieren.
Bei einer Variante des Verfahrens 1000 ist es auch denkbar, nacheinander Stellungen mit dem Manipulator 18 anzufahren, wobei die Stellungen bestimmten Konstellationen in Bezug auf die externe Lokalisationskennzeichnung 66 entsprechen. Solche Konstellationen könnten z. B. sein, dass eine Werkzeugspitze der Bohrwerkzeugmaschine 48 eine der Passermarken A, B, C in einer spezifischen Weise berührt. Um diese Stellungen anzufahren, kann mithilfe der Kamera 34 die Werkzeugspitze überwacht werden und mithilfe von laufender Bildverarbeitung durch die Steuereinheit 38 der Manipulator 38 entsprechend gesteuert werden, bis durch eine solche optische Überwachung erkannt wird, dass die gewünschte Konstellation erreicht ist. Dann können die Position und die Lage des Manipulators 18 anhand den von der nichtoptischen Sensorik 64 gelieferten Messwerten bestimmt werden. Anhand definierter Abstände und / oder Geometrien der Konstellationen, insbesondere der Passermarken, zueinander und durch Vergleich mit den zugehörigen Messwerten der nichtoptischen Sensorik 64 können dann wiederum Abweichungen ermittelt und hieraus Kalibrierungsdaten abgeleitet werden. Bezugszeichenliste
10 Bauroboter
12 mobile Plattform
14 Endeffektor-Plattform
16 Endeffektor
18 Manipulator
20 Markierstift
22 Hubvorrichtung
24 Kontaktelement
26 Motor
28 Stützarm
30 Befestigungsvorrichtung
32 Beleuchtung
34 Kamera
36 Lokalisationskennzeichnung
38 Steuereinheit
40 Reflexionselement
42 Beschleunigungssensor
44 Gehäuse
46 Steuerraum
48 Bohrwerkzeugmaschine
50 Staubabsaugungsvorrichtung
52 Mikrocontroller
54 Speichereinheit
56 Programmcode
58 Kommunikationsschnittstelle
60 Anzeigeeinheit
62 optische Sensorik
64 nichtoptische Sensorik
66 externe Lokalisationskennzeichnung
68 erste Bilddaten
70 zweite Bilddaten
100 Decke
1000 Verfahren 1010 Messphase
1012 Stellbewegung
1014 Bestimmung
1020 Analyse A, B,
C Passermarke
I, II, III Stellung

Claims

Patentansprüche Bauroboter (10) zur Ausführung einer Bauarbeit an einem Baustellenobjekt, umfassend
- eine mobile Plattform (12) und
- einen relativ zur mobilen Plattform (12) beweglichen Manipulator (18) und
- eine zumindest teilweise an der mobilen Plattform (12) angeordnete und / oder ausgebildete optische Sensorik (62), und
- eine Steuereinheit (38), die eingerichtet ist, unter Verwendung der optischen Sensorik (62) eine Position und / oder eine Lage des Manipulators (18), insbesondere eines am Manipulator (18) angeordneten Werkzeugs, relativ zur mobilen Plattform (12) zu bestimmen. Bauroboter nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass der Bauroboter (10) eine nichtoptische Sensorik (64) aufweist, und wobei die Steuereinheit (38) eingerichtet ist, eine Position und / oder eine Lage des Manipulators (18), insbesondere eines am Manipulator (18) angeordneten Werkzeugs, unter Verwendung der nichtoptischen Sensorik (64) relativ zur mobilen Plattform (12) zu bestimmen. Bauroboter nach einem der vorhergehenden Ansprüche, umfassend einen Lagesensor, beispielsweise in Form eines Beschleunigungssensors (42), zur Erfassung einer Lage des Bauroboters (10). Bauroboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die optische Sensorik (62) eine Lokalisationskennzeichnung (36), beispielsweise in Form einer AruCo-Markierung, umfasst. Bauroboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Lokalisationskennzeichnung (36) an einem Endeffektor (16) des Manipulators (18) und / oder am übrigen Manipulator (18) angeordnet und / oder ausgebildet ist. Bauroboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Manipulator (18) wenigstens drei, bevorzugt wenigstens sechs, Freiheitsgrade aufweist. Bauroboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Werkzeug ein Markierwerkzeug, ein Bohrwerkzeug, ein Meißelwerkzeug, ein Schleifwerkzeug und / oder ein Schneidwerkzeug, insbesondere ein Sägeblatt, ist und / oder umfasst. Verfahren (1000) zur Kalibrierung eines Bauroboters (10) nach einem der vorhergehenden Ansprüche, wobei Kalibrierungsdaten zur Kalibrierung von Stellbewegungen (1012) des Manipulators (18) erzeugt werden, in dem der Manipulator (18) in wenigstens eine erste und anschließend in eine zweite Stellung (I, II, III) gebracht wird, und bei Erreichen der jeweiligen Stellung (I, II, III) jeweils wenigstens eine Position und / oder Lage des Manipulators (18), insbesondere eines am Manipulator (18) angeordneten Werkzeugs, relativ zur mobilen Plattform (12), unter Verwendung der zumindest teilweise an der mobilen Plattform (12) des Bauroboters (10) angeordneten und / oder ausgebildeten optischen Sensorik (62) bestimmt werden. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass wenigstens eine der Positionen und / oder Lagen bestimmt wird, indem erste Bilddaten (68) einer am Manipulator (18) angeordneten und / oder ausgebildeten Lokalisationskennzeichnung (36) und zweite Bilddaten (70) einer in einer Umgebung des Bauroboters (10) angeordneten und / ausgebildeten externen Lokalisationskennzeichnung (36), insbesondere von der mobilen Plattform (12) aus, aufgezeichnet und ausgewertet werden.
PCT/EP2023/062224 2022-05-19 2023-05-09 Verfahren zur kalibrierung eines bauroboters und bauroboter WO2023222445A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP22174203.4A EP4279221A1 (de) 2022-05-19 2022-05-19 Bauroboter mit parallelmanipulator
EP22174203.4 2022-05-19
EP22187200.5A EP4279225A1 (de) 2022-05-19 2022-07-27 Verfahren zur kalibrierung eines bauroboters und bauroboter
EP22187200.5 2022-07-27

Publications (1)

Publication Number Publication Date
WO2023222445A1 true WO2023222445A1 (de) 2023-11-23

Family

ID=86605152

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/062224 WO2023222445A1 (de) 2022-05-19 2023-05-09 Verfahren zur kalibrierung eines bauroboters und bauroboter

Country Status (1)

Country Link
WO (1) WO2023222445A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2292387A1 (de) * 2009-09-02 2011-03-09 KUKA Roboter GmbH Mobile Messvorrichtung
DE102009042014A1 (de) * 2009-09-21 2011-03-24 Dürr Systems GmbH Handhabungsvorrichtung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2292387A1 (de) * 2009-09-02 2011-03-09 KUKA Roboter GmbH Mobile Messvorrichtung
DE102009042014A1 (de) * 2009-09-21 2011-03-24 Dürr Systems GmbH Handhabungsvorrichtung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOLDAGALIEVA AKMARAL ET AL: "Computer Vision-Based Pose Estimation of Tensegrity Robots Using Fiducial Markers", 2019 IEEE/SICE INTERNATIONAL SYMPOSIUM ON SYSTEM INTEGRATION (SII), IEEE, 14 January 2019 (2019-01-14), pages 478 - 483, XP033543290, DOI: 10.1109/SII.2019.8700452 *

Similar Documents

Publication Publication Date Title
EP2298508B1 (de) Vermessung eines Manipulators
EP2638358B1 (de) Gerät zum vermessen und markieren von raumpunkten entlang horizontal verlaufender höhenlinien
EP1189732B1 (de) Verfahren und vorrichtung zum kalibrieren von robotermessstationen, manipulatoren und mitgeführten optischen messeinrichtungen
EP1593930B1 (de) Vorrichtung und Verfahren zur Vermessung von Bauteilen
DE102017122857A1 (de) Robotersystem mit einem auf einem beweglichen Gestellwagen getragenen Roboter
DE102010031248A1 (de) Verfahren zum Vermessen eines Roboterarms eines Industrieroboters
EP2874788B1 (de) Messgerät
DE102018201899A1 (de) 3D-Druck-Roboter, 3D-Druck-Robotersystem und Verfahren zur Herstellung eines Objekts mit zumindest einem derartigen 3D-Druck-Roboter
DE202017105337U1 (de) Omnidirektionales, autonomes Fahrzeug mit einer Bohrvorrichtung
DE112018007660T5 (de) Kalibriervorrichtung für eine abbildungsvorrichtung, überwachungsvorrichtung, arbeitsmaschine und kalibrierverfahren
EP2292387A1 (de) Mobile Messvorrichtung
DE102016005699B3 (de) Verfahren zum Kalibrieren einer Messvorrichtung zur Vermessung von Karosserieteilen und anderen Werkstücken sowie zur Durchführung des Verfahrens geeignete Messvorrichtung
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
DE202020005627U1 (de) Mobiler Roboter
DE102008063988B4 (de) Verfahren zum Charakterisieren oder Prüfen der Funktion eines Sensors eines Fahrerassistenzsystems eines Prüffahrzeugs und entsprechende Vorrichtung
DE102017003641B4 (de) Verfahren zur Messung von Koordinaten oder Eigenschaften einer Werkstückoberfläche
WO2023222445A1 (de) Verfahren zur kalibrierung eines bauroboters und bauroboter
EP4279225A1 (de) Verfahren zur kalibrierung eines bauroboters und bauroboter
DE102014013724A1 (de) Verfahren zum Abstecken von Bohrlöchern eines Fahrzeugs
DE112021002301T5 (de) Vorrichtung zum erhalten einer position eines visuellen sensors im steuerkoordinatensystem eines roboters, robotersystem, verfahren und computerprogramms
WO2021136837A1 (de) Verfahren und vorrichtung zur automatisierten anordnung von tunnelausbausegmenten
DE102018102789B4 (de) Verfahren und Vorrichtung zur Schwingungsanalyse eines schwingungsfähigen Objekts, insbesondere eines Bauwerks
EP4034348A1 (de) Verfahren zum präzisieren einer position und/oder orientierung eines gerätekopfes
DE202020005494U1 (de) Vorrichtung zur automatisierten Anordnung von Tunnelausbausegmenten
DE102022207573B4 (de) Bodenmarkierwerkzeug, Markierungssystem und Verfahren zum Betreiben eines Markierungssystems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23726893

Country of ref document: EP

Kind code of ref document: A1