[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2022163590A1 - 教示装置 - Google Patents

教示装置 Download PDF

Info

Publication number
WO2022163590A1
WO2022163590A1 PCT/JP2022/002464 JP2022002464W WO2022163590A1 WO 2022163590 A1 WO2022163590 A1 WO 2022163590A1 JP 2022002464 W JP2022002464 W JP 2022002464W WO 2022163590 A1 WO2022163590 A1 WO 2022163590A1
Authority
WO
WIPO (PCT)
Prior art keywords
icon
information
instruction
execution
teaching device
Prior art date
Application number
PCT/JP2022/002464
Other languages
English (en)
French (fr)
Inventor
岬 伊藤
勇太 並木
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to CN202280009306.6A priority Critical patent/CN116685916A/zh
Priority to JP2022578374A priority patent/JP7553612B2/ja
Priority to DE112022000322.7T priority patent/DE112022000322T5/de
Priority to US18/254,880 priority patent/US20240091927A1/en
Publication of WO2022163590A1 publication Critical patent/WO2022163590A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39438Direct programming at the console
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40392Programming, visual robot programming language

Definitions

  • the present invention relates to a teaching device.
  • Patent Document 2 discloses a teaching device for inputting (setting) various teaching data such as selection of an operation method of a robot body, teaching of movement points, etc., in which a setting menu on a touch panel is displayed.
  • an item selection screen is displayed in which a plurality of teaching items are represented by icons, and a configuration is described in which each icon displays a moving image representing the content of the teaching item (abstract).
  • setting information of the icon must be opened without selecting an icon on the program creation screen and opening a parameter setting screen for setting the parameters of the icon. cannot be verified.
  • teaching (programming) using icons it is often desired to check not only the setting information displayed on the parameter setting screen, but also sensor information related to the icon, results of executing the icon, and the like.
  • One aspect of the present disclosure is a teaching device for creating a control program for a robot, which includes a screen generation unit that generates a program creation screen for creating the program by commands representing functions constituting the control program for the robot. and a related information display control unit that displays information related to the instruction to be selected or instructed to be executed in accordance with the selection or instruction to execute the instruction placed on the program creation screen. .
  • FIG. 1 is an overall configuration diagram of a robot system including a teaching device according to a first embodiment
  • FIG. FIG. 4 is a diagram showing a state in which a force sensor is arranged between the wrist flange and the hand of the robot
  • 3 is a diagram showing a hardware configuration example of a visual sensor control device and a robot control device
  • FIG. 3 is a functional block diagram of a visual sensor control device and a robot control device
  • FIG. It is a figure showing the hardware structural example of a teaching device.
  • FIG. 10 is an operation example of the first embodiment, showing a state in which a live image of the visual sensor is displayed by selecting a viewing icon arranged in the icon display area
  • FIG. 10 is an operation example of the first embodiment, showing a state in which a live image of the visual sensor is displayed by selecting a viewing icon arranged in the icon display area;
  • FIG. 10 is an operation example of the first embodiment, showing a state in which a live image of the visual sensor is displayed by selecting a viewing icon
  • FIG. 10 is an operation example of the first embodiment, showing a state in which a live image of the visual sensor is displayed by selecting a viewing icon arranged in the programming area;
  • FIG. 10 is an operation example of the second embodiment, and shows a state in which information of a detection result is displayed as an execution result of the viewing icon arranged in the program creation area;
  • FIG. 14 is an operation example of Example 3, and is a diagram showing a state in which force sensor information is displayed in response to selection of an icon related to the function of the force sensor in the icon display area.
  • FIG. 17 is an operation example of the fourth embodiment, showing an example of displaying information about a device connected to the robot in response to an execution instruction for an icon related to the device.
  • FIG. 20 is an operation example of Example 5, and is a diagram showing an example of displaying setting information of a standby setting icon arranged in an icon display area in response to selection of the icon.
  • FIG. 20 is an operation example of the fifth embodiment, showing an example of displaying setting information of a standby setting icon arranged in a program creation area in response to an execution instruction of the icon;
  • FIG. 20 is an operation example of Example 5, and is a diagram showing an example of displaying setting information of a linear movement icon arranged in an icon display area in response to selection of the icon.
  • FIG. 20 is an operation example of the sixth embodiment, showing an example of displaying internal variables related to a register icon arranged in an icon display area in response to selection of the icon;
  • FIG. 20 is an operation example of the sixth embodiment, showing a display example when there is an error in the setting of the register icon;
  • FIG. 20 is an operation example of the seventh embodiment, showing an example of displaying information related to an icon before execution of the icon in response to an execution instruction for the program of the icon arranged in the program creation area.
  • It is a functional block diagram of a teaching device according to a second embodiment.
  • FIG. 10 is a diagram for explaining switching of display content based on display attribute information;
  • FIG. 10 is a diagram for explaining switching of display contents based on execution state attributes;
  • FIG. 1 is a diagram showing the overall configuration of a robot system 100 including a teaching device 10 according to one embodiment.
  • the teaching device 10 is a teaching device for performing programming based on commands representing functions constituting a robot control program.
  • the teaching device 10 is a teaching device that enables programming using icons representing functions constituting a robot control program (that is, representing robot control commands).
  • a robot system including the teaching device 10 may have various configurations, but in this embodiment, the robot system 100 shown in FIG. 1 will be described as an example.
  • the robot system 100 includes a robot 30 having a hand 33 mounted on the tip of an arm, a robot controller 50 that controls the robot 30, a teaching device 10 connected to the robot controller 50, and an arm tip of the robot 30. and a visual sensor controller 40 for controlling the visual sensor 70 .
  • the robot system 100 is configured to detect the object 1 on the workbench 2 with the visual sensor 70 and handle the object 1 with the hand 33 mounted on the robot 30 .
  • the visual sensor control device 40 has a function of controlling the visual sensor 70 and a function of performing image processing on the image captured by the visual sensor 70 .
  • the visual sensor control device 40 detects the position of the object 1 from the image captured by the visual sensor 70 and provides the detected position of the object 1 to the robot control device 50 .
  • the robot control device 50 can correct the teaching position and take out the object 1 or the like.
  • FIG. 1 shows a configuration example in which the robot system 100 includes the visual sensor 70 as a sensor related to the functions of the robot system
  • sensors related to the functions of the robot system there are various examples of sensors related to the functions of the robot system.
  • a force sensor when a force sensor is mounted on the robot system, a force sensor 71 may be arranged between the wrist flange 31 of the robot 30 and the hand 33A as shown in FIG.
  • FIG. 2 shows only the vicinity of the tip of the arm of the robot 30 .
  • the robot 30 can be caused to perform an operation of pressing the workpiece W1 against another workpiece with a constant force (for example, precision fitting operation).
  • FIG. 3 is a diagram showing a hardware configuration example of the visual sensor control device 40 and the robot control device 50.
  • the visual sensor control device 40 is a general computer in which a memory 42 (ROM, RAM, non-volatile memory, etc.), an input/output interface 43 and the like are connected to a processor 41 via a bus. You may have a configuration as Further, the robot control device 50 has a memory 52 (ROM, RAM, non-volatile memory, etc.), an input/output interface 53, an operation unit 54 including various operation switches, etc. connected to the processor 51 via a bus. It may have a configuration as a typical computer.
  • the visual sensor 70 may be a camera that captures a grayscale image or a color image, or a stereo camera or a three-dimensional sensor that can acquire a range image or a three-dimensional point group.
  • a plurality of visual sensors may be arranged in the robot system 100 .
  • the visual sensor control device 40 holds a model pattern of an object, and executes image processing for detecting the object by pattern matching between the image of the object in the captured image and the model pattern.
  • FIG. 1 shows an example in which the visual sensor 70 is attached to the tip of the arm of the robot 30, the visual sensor 70 is fixed at a known position within the working space where the object 1 on the workbench 2 can be photographed.
  • the robot 30 grasps the object 1 and performs an operation of showing the object to a visual sensor fixedly installed in the work space, thereby detecting, inspecting, etc. the object 1 .
  • FIG. 4 is a functional block diagram showing main functional blocks of the visual sensor control device 40 and the robot control device 50.
  • the visual sensor control device 40 includes an image processing unit 402 that performs image processing on an input image 401 captured by the visual sensor 70, and the visual sensor 70 with respect to the reference coordinate system set in the robot 30. and a calibration data storage unit 403 that stores calibration data that determines the relative position.
  • the image processing unit 402 executes image processing for detecting the object 1 from the input image by pattern matching using a model pattern.
  • the robot control device 50 includes a motion control unit 501 that controls the motion of the robot 30 according to the motion command input from the teaching device 10 or the control program held in the internal memory.
  • the image processing unit 402 provides the detected position of the object 1 to the operation control unit 501, and the operation control unit 501 handles the object 1 using the detected position provided from the image processing unit 402. .
  • the teaching device 10 is used to teach the robot 30 (that is, create a control program).
  • Various information processing devices such as a teaching operation panel, a tablet terminal, a smart phone, and a personal computer can be used as the teaching device 10 .
  • FIG. 5 is a diagram showing a hardware configuration example of the teaching device 10. As shown in FIG. As shown in FIG. 5, the teaching device 10 provides an operation input device such as a memory 12 (ROM, RAM, non-volatile memory, etc.), a display unit 13, and a keyboard (or software keys) for a processor 11. It may have a configuration as a general computer in which the unit 14, the input/output interface 15 and the like are connected via a bus.
  • FIG. 6 is a functional block diagram of the teaching device 10.
  • the teaching device 10 includes a program creating unit 110 for creating/editing a control program using icons.
  • the program creation unit 110 includes an icon data storage unit 111 for storing icon data, a screen generation unit 112 for generating various screens for creating control programs, and an operation for receiving various user operations for creating/editing control programs. It has an input reception unit 113 , a program generation unit 114 , an execution unit 115 , a parameter setting unit 116 , and a related information display control unit 117 .
  • the icon data storage unit 111 is composed of, for example, a non-volatile memory, and stores various information related to icons.
  • the information about the icon includes information about the design of the icon, parameters (setting information) set for the function of the icon, a character string simply representing the function of the icon, and the like. Default values may be set in the icon data storage unit 111 as parameter settings for each icon.
  • the screen generation unit 112 generates a program creation screen 500 for creating a control program using icons.
  • the program creation screen 500 includes a first area (icon display area 200) for displaying a list of one or more icons representing functions constituting the control program of the robot 30; and a second area (program creation area 300) for creating a control program by arranging icons selected from the area.
  • the user selects desired icons from the icon display area 200 and arranges them in the program creation area 300 . Then, the user sets parameters relating to the function of each icon arranged in the programming area 300 as necessary. This allows the user to create the control program without requiring knowledge of the grammar of the programming language.
  • the operation input reception unit 113 receives various operation inputs on the program creation screen 500 .
  • the operation input receiving unit 113 selects an icon according to an operation in which the cursor of the input device is aligned with one of the icons arranged in the icon display area 200 or the program creation area 300, or selects the icon in the icon display area.
  • the operation input of dragging and dropping the icons arranged in 200 and arranging them in the program creation area 300 is supported.
  • the program generation unit 114 generates a control program in a programming language from one or more icons arranged in the program creation area 300 in order of operation.
  • the execution unit 115 executes the icons arranged in the program creation area 300 in accordance with a user operation instructing execution of the icons.
  • the execution unit 115 can collectively execute the icons arranged in the program creation area 300 or execute one or a plurality of icons in the program creation area 300 .
  • execution unit 115 sequentially executes the icons arranged in program creation area 300 to create a program.
  • the icon may be configured to be executed in response to an operation of selecting an icon in the area 300 and instructing execution (an operation of placing the cursor and clicking (or tapping)).
  • execution instructions for icons (programs) are not limited to user operations.
  • an icon (program) may be executed by an external signal input to the teaching device (for example, a signal input to the robot 30 or the robot control device 50 from various devices).
  • the parameter setting unit 116 provides a function of setting parameters for an icon selected in the program creation area 300 or the icon display area 200 . For example, when the detail tab 652 (see FIG. 7) is selected while the icon is selected, the parameter setting unit 116 generates a screen for parameter input and accepts parameter setting input.
  • parameter settings are, for example, as follows. "Look icon" corresponding to the detection function using the visual sensor: ⁇ Initial setting of camera ⁇ Teaching setting of target object ⁇ Setting of shooting position "Linear movement icon” corresponding to the function of linear movement: ⁇ Operating speed ⁇ Positioning setting ⁇ Position register designation Note that, as described above, default values may be set in advance for these parameters.
  • the related information display control unit 117 responds to at least one of an operation of selecting an icon in the icon display area 200 or the program creation area 300, or an operation of instructing execution of an icon arranged in the program creation area 300.
  • Information related to the icon that is the target of the selection operation or the operation instructing execution is displayed on the display screen of the display unit 13 .
  • Icon-related information includes any of icon parameter setting information, sensor and device information associated with the icon, icon execution results or execution states, icon-related program internal variables, and the like.
  • Example 1 will be described with reference to FIG.
  • Example 1 is an example of displaying sensor information related to an icon in response to selection of the icon in the icon display area 200 or the program creation area 300 .
  • the "view icon 601" is selected.
  • a view icon 601 provides a function of detecting an object by the visual sensor 70 and acquiring position information of the object.
  • the program creation screen 500 includes an icon display area 200 for displaying a list of various icons that can be used for program creation, and a program creation area for arranging the icons in order of operation to create a control program. 300.
  • a pop-up screen 700 displaying information related to an icon is displayed in response to an icon selection operation or an icon execution instruction operation.
  • Pop-up screen 700 is preferably displayed as a screen (window) separate from icon display area 200 and program creation area 300 (so as not to overlap with those areas). Note that the form of displaying the information related to the icon is not limited to the pop-up screen, and various display forms can be adopted.
  • the program creation screen 500 may further include a status display area 450.
  • a status display area 450 Note that in the embodiment 1-7, an example of displaying the robot model 30M representing the current position and orientation of the robot 30 in the state display area 450 is shown. It should be noted that such an image of the robot model 30M is obtained by acquiring the current position and orientation information of the robot 30 from the robot control device 50 in the teaching device 10, and transforming the 3D model data of the robot 30 into a virtual work space according to the position and orientation information. This can be achieved by operating within
  • the icon 601 to be viewed is selected by moving the cursor 671 to the icon 601 to be viewed within the icon display area 200 . It should be noted that the icon may be selected even during the operation of selecting the target icon in the icon display area 200 and dragging and dropping it to place it in the program creation area 300 .
  • the related information display control unit 117 displays the live image M1 of the imaging area of the visual sensor 70 as the information of the visual sensor 70 associated with the viewing icon 601.
  • a pop-up screen 700 is displayed.
  • the live image M1 is immediately displayed when the user only selects the icon 601 to be viewed for program creation, the user does not need to perform complicated operations to confirm the image in the field of view of the visual sensor 70.
  • related information display control unit 117 displays popup screen 700 showing live image M1 of visual sensor 70 in response to selection of viewing icon 601 arranged in program creation area 300. may be displayed.
  • the related information display control unit 117 may display information related to the icon (here, the live image M1) on the pop-up screen 700 while the target icon is selected.
  • the icon-related information is popped up separately from the program creation screen and the parameter setting screen. You can create a program while checking the In programming using icons, various types of information that support programming are provided with extremely simple operations, enabling more intuitive and efficient programming. Such effects of the first embodiment are common to each of the embodiments described below.
  • Example 2 A second embodiment will be described with reference to FIG.
  • the second embodiment is an example of displaying information about the execution result of an icon placed in the program creation area 300 when an operation is performed to instruct execution of the icon.
  • a viewing icon 601 On the program creation screen 500 shown in FIG. 9, a viewing icon 601, an action (vision) icon 602, and a linear movement icon 603 are arranged in the program creation area 300 by user operation.
  • the action (vision) icon 602 provides a function of moving the robot 30 (control part) to the position detected by the viewing icon 601 and picking up the object.
  • the linear movement icon 603 provides a function of linear movement of the robot 30 (control part).
  • the execution result of the view icon 601 is displayed according to the operation to select and execute the view icon 601 has been described.
  • the execution result may be displayed according to the completion of the execution of the icon 601 to be viewed.
  • the user simply performs an operation to instruct the execution of the icon related to the visual sensor or the program including the icon related to the visual sensor on the program creation screen 500, and the execution result of the icon (that is, , detection results indicating the presence or absence of the taught object) can be quickly confirmed.
  • Example 3 will be described with reference to FIG.
  • the third embodiment is an example of displaying force sensor information related to an icon in response to selection or execution instruction of an icon related to a function using a force sensor in the icon display area 200 .
  • the force sensor 71 is arranged in the robot system 100 as shown in FIG.
  • the "pressing action icon 604" related to force control using the force sensor 71 is selected in the icon display area 200.
  • FIG. The force sensor 71 shall be a 6-axis force sensor.
  • the related information display control unit 117 displays a graph 721 representing the detection values of the force sensor 71 on the pop-up screen 700 according to the selection of the pressing action icon 604 .
  • a graph 721 shows, as the output values of the force sensor 71, the load magnitude (X, Y, Z) in the XYZ axis directions and the moment (W, P, R) around the XYZ axes in the coordinate system set in the force sensor 71. Shows time transition.
  • the vertical axis represents the magnitude of load or moment
  • the horizontal axis represents time.
  • the user can immediately check the current detected value of the force sensor simply by selecting the icon related to the force sensor on the program creation screen 500 .
  • a graph of the detection value of the force sensor 71 as information about the state of execution during execution of the pressing action icon 604 or as information about the execution result after execution in response to the selection/execution instruction operation for the pressed action icon 604. 721 may be displayed on the pop-up screen 700 .
  • Example 4 will be described with reference to FIG.
  • a fourth embodiment is an example of displaying information about a device (IO device) connected to the robot 30 (robot control device 50) in response to a selection or execution instruction for an icon related to the device. It is assumed that the "talk icon 605" is selected from among the icons arranged in the program creation area 300 on the program creation screen 500 of FIG. 11 and an execution instruction is given. A talk icon 605 corresponds to an instruction to open the hand 33 .
  • the related information display control unit 117 graphically displays the IO information 731 representing the IO control state of the hand 33 and the current open/closed state of the hand 33 in response to the selection/execution instruction operation on the talk icon 605 .
  • a hand image 732 is displayed on the pop-up screen 700 .
  • the IO information 731 and the hand image 732 representing the state of IO control may be displayed in real time during execution of the release icon 605, or may be displayed as information representing the execution result after execution of the release icon 605. Also good.
  • the related information display control unit 117 can acquire IO control information from the robot control device 50 .
  • the teaching device 10 and the hand 33 may be directly connected so that the teaching device 10 directly acquires the control state of the hand 33 from the hand 33 (control section of the hand 33).
  • a fifth embodiment will be described with reference to FIGS. 12-14.
  • a fifth embodiment is an example of displaying parameters (setting information) of an icon according to the selection of the icon or an execution instruction.
  • 12 and 13 show an operation example of displaying information about the standby setting icon 606 in response to the selection or execution of the command icon (standby setting icon 606) that causes the program to wait for a specified period of time. show.
  • the standby setting icon 606 is selected in the icon display area 200 on the program creation screen 500 shown in FIG.
  • the related information display control unit 117 displays the setting time information 741 (“standby setting time 6 sec”) of the standby setting icon 606 on the pop-up screen 700 .
  • the user can confirm the setting information of the target icon only by selecting the target icon. It is assumed that the "set standby time 6 sec" displayed on the pop-up screen 700 of FIG. 12 is a value set in advance by the user via the parameter setting screen.
  • the related information display control unit 117 displays the default value of the standby set time (eg, 5 sec) as the set time information 741. You can In the pop-up screen 700 of FIG. 12, the standby setting icon 606 is not in operation, so the elapsed time information 742 representing the actual elapsed time of the standby time is displayed as 0.0 sec.
  • the related information display control unit 117 causes the pop-up screen 700 to display information regarding the setting of the standby setting icon 606 and information regarding the state of the icon being executed in response to the start of execution of the standby setting icon 606 .
  • the related information display control unit 117 displays real-time elapsed time information 742 ("3.3 sec") about the standby time together with information 741 ("standby set time 6 sec") of the set time of the standby setting icon 606. Let This allows the user to confirm at a glance how long the robot 30 has been stationary.
  • FIG. 14 shows an example of displaying setting information about the linear movement icon 603 corresponding to the linear movement command by selecting the linear movement icon 603 in the icon display area 200 .
  • the related information display control unit 117 displays information 751 of setting details of the linear movement icon 603 in the popup screen 700 .
  • the information 751 of the linear movement icon 603 includes the operation speed of the linear movement (1000 mm/sec), the designation of the "positioning" operation to stop at the target position after movement, and the use of the position register [2] as the position designation. , and a comment ('fetch location').
  • the fifth embodiment supports the user who creates (teaches) the program and makes the programming more efficient.
  • Example 6 (Example 6) Example 6 will be described with reference to FIGS. 15 and 16.
  • FIG. Example 6 relates to an operation example of displaying internal variables of a program related to a target icon. Here, information display when an icon related to a register (register icon 607) is selected will be described.
  • the register icon 607 is specified and selected by the cursor 671 in the icon display area 200.
  • the related information display control unit 117 may display that there is an error in the setting within the pop-up screen 700.
  • the pop-up screen 700 indicates that the register number "0" is incorrect. A state highlighted in a manner is shown.
  • the internal variables of the program are presented, and error information is also presented if there is an error in the setting of the variables. be able to.
  • Example 7 A seventh embodiment will be described with reference to FIG.
  • the seventh embodiment when an operation is performed to instruct execution of a program of an icon placed in the program creation area 300, information related to a certain icon is displayed in a pop-up before execution of the icon. For example.
  • FIG. 17 shows a situation in which information 751 of the setting content of the linear movement icon 603 is displayed while the action (vision) icon 602 is being executed.
  • FIG. 17 describes an example of presenting information about one icon before execution of the icon. Also good.
  • the information related to the icon is displayed before the icon is executed, so the user can grasp in advance the information related to the icon whose execution is scheduled to start. For example, if an error or the like is included in the settings of an icon scheduled to be executed, it is possible to take measures such as stopping the program before the icon is executed.
  • the teaching device 10A has a configuration obtained by adding an attribute information setting unit 118 to the teaching device 10 according to the first embodiment.
  • the teaching device 10A includes the functions of the teaching device 10 described above. It is assumed that the robot system to be programmed by the teaching device 10A is a welding robot system. In the case of a welding robot system, in the robot system 100 shown in FIG. It can be realized by configuring the welding power source to operate under the control of the robot control device 50 by connecting. This embodiment assumes such a welding robot system.
  • the attribute information setting unit 118 provides a function of setting display attribute information defining display content to be displayed as icon-related information for each icon.
  • the set display attribute information is stored in the icon data storage unit 111 in association with the icon.
  • the related information display control unit 117 determines the display content according to the display attribute information set for the icon when displaying the information about the icon in response to the execution instruction for the icon.
  • linear movement icons 621 and 622, a welding start icon 623, a welding point movement icon 624, and linear movement icons 625 and 626 are arranged in the programming area 300 as welding programs.
  • Weld activation icon 623 represents an instruction to activate the welding power supply.
  • the welding start icon 623 has a long strip shape, and represents that the icon (welding point movement icon 624) arranged therein is performed during welding.
  • a welding operation is performed in which welding is started by moving from the initial position to the welding standby position and returning to the initial position after welding is completed.
  • display attribute information is set for the icon as follows.
  • Linear movement icon 'movement' Welding Activation Icon: 'Arc Welding'
  • the related information display control unit 117 acquires the position information of the robot from the robot control device 50 in real time, and displays the robot model 30M representing the motion of the robot. It is displayed in the state display area 450 as an example.
  • the welding start icon 623 whose display attribute information is 'arc welding' is being executed
  • the related information display control unit 117 switches the display content displayed in the state display area 450 to information indicating the welding state.
  • indicator images 771 and 772 respectively indicating current and voltage during arc welding are displayed as information indicating the welding state.
  • the related information display control section 117 acquires the welding current and voltage via the robot control device 50 .
  • the timing of such information display may also be settable.
  • the welding start icon 623 may be set so that the screen is not switched for three seconds after the welding command is executed.
  • a priority may be set for each piece of display attribute information. For example, if a high priority is set for the display attribute 'arc welding', information with a high priority can be preferentially displayed when content to be displayed in the state display area 450 conflicts.
  • These information display timings and priorities may also be set as attributes for each icon via the attribute information setting unit 118 .
  • an execution state attribute may be settable via the attribute information setting unit 118.
  • a display example of information about icons based on execution state attributes will be described with reference to FIG. As an example, it is assumed that 'welding enabled' or 'welding disabled' can be set as an execution state attribute for the welding activation icon 623 .
  • the execution state attribute is 'welding enabled' (that is, when arc discharge is enabled)
  • the related information display control unit 117 displays indicator images 771 and 772 indicating arc welding current and voltage, respectively. is displayed in the state display area 450 .
  • the execution state attribute is 'welding disabled' (that is, when arc discharge is disabled)
  • the related information display control unit 117 displays a live image of the machined portion of the tip of the welding torch. displayed in area 450 .
  • the welding enable setting the information of the current and voltage during arc welding desired by the user is presented, and in the case of welding disable setting, the welding torch tip is presented as the information desired by the user. It is possible to provide a live image M2 with which the position of the part can be confirmed.
  • the setting regarding what kind of information is to be provided according to the execution state attribute may also be settable (that is, customizable) via the attribute information setting unit 118 .
  • the attribute information setting unit 118 may receive the setting of the various attribute information described above through user operation.
  • various attribute information may be input from an external device to the teaching device 10A, or may be stored in the icon data storage section 111 in advance.
  • icon-related information may be displayed in a pop-up as in the first embodiment.
  • the teaching device arranges a first area (instruction list display area) for displaying a list of instruction sentences (instruction list display area) and instruction sentences selected from the first area as a program creation screen.
  • a second area program creation area for creating the .
  • the first area is 'Choksen' 'Kakujiku' 'Yobidashi HAND_OPEN' 'Yobidashi HAND_CLOSE' 'Vision detection' 'Vision Hosei Data Stock' It may be configured as a pop-up menu screen that displays a list of command sentences such as
  • the command 'choksen' corresponds to the command to move the control part of the robot in a straight trajectory
  • the command 'kakujiku' corresponds to the command to move the robot by each axis movement
  • 'yobidashi HAND_OPEN' corresponds to the command
  • the command 'Yobidashi HAND_CLOSE' corresponds to the command to close the hand and grasp the object
  • 'Vision detection' corresponds to the command to image the object with the visual sensor
  • 'Vision position data Toku' corresponds to an instruction to detect the position of an object from the captured image.
  • the user selects instructions from the first area (pop-up menu screen) and arranges them in the second area (program creation area) to create a program. specify.
  • An example of the program described in the second area (program creation area) is shown below. 1: Chokusenichi[1] 2000mm/sec Ichigime; 2: ; 3: Vision detection 'A'; 4: Vision Position Data Stock 'A' Vision Reg[1] Jump Label[100] ; Five: ; 6: !Handling ; 7: Shift position [2] 2000mm/sec Nameraka 100 Vision adjustment, Vision registration [1] Tool adjustment, Position registration [1] ; 8: Choksen Ichi [2] 500mm/sec Ichigime vision adjustment, vision register [1] ; 9: Yobidashi HAND_CLOSE ; 10: 10: 2000mm/sec Nameraka 100 Vision adjustment, Vision registration [1] Tool adjustment, Position registration [1] ; The above program detects the position of the object (lines 1 to 5) using the visual sensor (cam
  • the teaching device uses the functional block configuration equivalent to the functional block shown in FIG. (program creation area) to create a program. Then, the teaching device (related information display control unit) selects an imperative sentence in the first area or the second area, or according to an instruction to execute an imperative sentence placed in the second area, Information related to the imperative is displayed, for example, as a pop-up screen.
  • the program creation screen 500 is displayed in one rectangular frame, and the program creation area 300 and the icon display area 200 are included in the one rectangular frame.
  • the program creation area 300 and the icon display area 200 may be displayed as separate windows.
  • the program creation area 300, the icon display area 200, and the pop-up screen 700 are displayed as separate windows.
  • the arrangement of the functional blocks of the visual sensor control device, the robot control device, and the teaching device shown in FIGS. 2 and 4 is an example, and the arrangement of these functional blocks can be changed as appropriate.
  • the functional blocks of the teaching device shown in FIG. 4 may be realized by the processor of the teaching device executing various software stored in a storage device, or by hardware such as ASIC (Application Specific Integrated Circuit). It may be realized by a configuration mainly composed of

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

ロボットの制御プログラムを作成するための教示装置(10)であって、ロボットの制御プログラムを構成する機能を表す命令によりプログラム作成を行うためのプログラム作成画面を生成する画面生成部(112)と、プログラム作成画面に配置された命令に対する選択又は実行指示に応じて、選択又は実行指示の対象の命令に関連する情報を表示する関連情報表示制御部(117)と、を備える教示装置(10)である。

Description

教示装置
 本発明は、教示装置に関する。
 ロボット制御の各命令を表すアイコンを用いたプログラミングを可能とする教示装置が提案されている(例えば、特許文献1)。また、これに関連し、特許文献2は、ロボット本体の動作方式の選択、移動ポイントの教示等の各種の教示データの入力(設定)作業を行うための教示装置において、タッチパネル上の設定メニューが選択された際に、複数の教示項目をアイコンにより表した項目選択画面を表示すると共に、各アイコンにその教示項目の内容を表現する動画を表示する構成を記載する(要約書)。
特許第6498366号公報 特開2001-88068号公報
 一般に、従来の教示装置におけるアイコンを用いた教示(プログラミング)では、プログラム作成画面上でアイコンを選択しアイコンのパラメータを設定するためのパラメータ設定画面を開くという操作を行わなければそのアイコンの設定情報を確認することができない。また、アイコンを用いた教示(プログラミング)では、パラメータ設定画面に表示される設定情報のみでなく、そのアイコンに関連するセンサの情報やそのアイコンを実行した結果等を確認したい場合も多い。
 本開示の一態様は、ロボットの制御プログラムを作成するための教示装置であって、前記ロボットの制御プログラムを構成する機能を表す命令によりプログラム作成を行うためのプログラム作成画面を生成する画面生成部と、前記プログラム作成画面に配置された命令に対する選択又は実行指示に応じて、前記選択又は前記実行指示の対象の命令に関連する情報を表示する関連情報表示制御部と、を備える教示装置である。
 上記構成によれば、ロボットの制御プログラムのプログラミングにおいて、プログラミングを支援する各種情報が極めて簡単な操作で提供され、いっそう直感的で且つ効率的なプログラミングが可能になる。
 添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
第1実施形態に係る教示装置を含むロボットシステムの全体構成図である。 ロボットの手首フランジとハンドとの間に力センサを配置した状態を表す図である。 視覚センサ制御装置及びロボット制御装置のハードウェア構成例を表す図である。 視覚センサ制御装置及びロボット制御装置の機能ブロック図である。 教示装置のハードウェア構成例を表す図である。 教示装置の機能ブロック図である。 実施例1の動作例であって、アイコン表示領域に配置された見るアイコンの選択により視覚センサのライブ画像が表示された状態を表す図である。 実施例1の動作例であって、プログラム作成領域に配置された見るアイコンの選択により視覚センサのライブ画像が表示された状態を表す図である。 実施例2の動作例であって、プログラム作成領域に配置された見るアイコンの実行結果として検出結果の情報が表示された状態を表す図である。 実施例3の動作例であって、アイコン表示領域において力センサの機能に関連するアイコンが選択されることに応じて、力センサの情報が表示された状態を表す図である。 実施例4の動作例であって、ロボットと接続している機器に関連するアイコンに対する実行指示に応じて当該機器に関する情報を表示する例を表す図である。 実施例5の動作例であって、アイコン表示領域に配置された待機設定アイコンの選択に応じて当該アイコンの設定情報を表示する例を表す図である。 実施例5の動作例であって、プログラム作成領域に配置された待機設定アイコンの実行指示に応じて当該アイコンの設定情報を表示する例を表す図である。 実施例5の動作例であって、アイコン表示領域に配置された直線移動アイコンの選択に応じて当該アイコンの設定情報を表示する例を表す図である。 実施例6の動作例であって、アイコン表示領域に配置されたレジスタアイコンの選択に応じて、当該アイコンに関連する内部変数を表示する例を表す図である。 実施例6の動作例であって、レジスタアイコンの設定にエラーがある場合の表示例を表す図である。 実施例7の動作例であって、プログラム作成領域に配置されたアイコンのプログラムに対する実行指示に応じて、アイコンの実行前の時点で当該アイコンに関連する情報を表示する例を表す図である。 第2実施形態に係る教示装置の機能ブロック図である。 表示属性情報による表示内容の切り替えを説明するための図である。 実行状態属性による表示内容の切り替えを説明するための図である。
 次に、本開示の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。
第1実施形態
 図1は一実施形態に係る教示装置10を含むロボットシステム100の全体構成を表す図である。教示装置10は、後述するように、ロボットの制御プログラムを構成する機能を表す命令によるプログラミングを行うための教示装置である。以下では、例示として、教示装置10は、ロボットの制御プログラムを構成する機能を表す(すなわち、ロボット制御の命令を表す)アイコンを用いたプログラミングを可能とする教示装置であるものとする。教示装置10を含むロボットシステムとしては様々な構成が有り得るが、本実施形態では、例示として、図1に示すロボットシステム100について説明を行うこととする。ロボットシステム100は、アーム先端部にハンド33を搭載したロボット30と、ロボット30を制御するロボット制御装置50と、ロボット制御装置50に接続された教示装置10と、ロボット30のアーム先端部に取り付けられた視覚センサ70と、視覚センサ70を制御する視覚センサ制御装置40とを含む。ロボットシステム100は、視覚センサ70により作業台2上の対象物1の検出を行い、ロボット30に搭載したハンド33で対象物1のハンドリングを行うように構成される。
 視覚センサ制御装置40は、視覚センサ70を制御する機能と、視覚センサ70で撮像された画像に対する画像処理を行う機能とを有する。視覚センサ制御装置40は、視覚センサ70で撮像された画像から対象物1の位置を検出し、検出された対象物1の位置をロボット制御装置50に提供する。これにより、ロボット制御装置50は、教示位置を補正して対象物1の取り出し等を実行することができる。
 なお、図1では、ロボットシステム100が、ロボットシステムの機能に係わるセンサとして視覚センサ70を備える構成例を示しているが、ロボットシステムの機能に係わるセンサとしては様々な例が有り得る。例えば、ロボットシステムに力センサを搭載する場合には、図2に示すようにロボット30の手首フランジ31とハンド33Aとの間に力センサ71を配置するようにしても良い。なお、図2では、説明の便宜のため、ロボット30のアーム先端部付近のみを図示している。力センサ71を用いることで、ロボット30に、ワークW1を一定の力で他のワークに押し付ける作業(例えば、精密嵌め合い作業)等を実行させることができる。
 図3は、視覚センサ制御装置40及びロボット制御装置50のハードウェア構成例を表す図である。図3に示すように、視覚センサ制御装置40は、プロセッサ41に対してメモリ42(ROM、RAM、不揮発性メモリ等)、入出力インタフェース43等がバスを介して接続された、一般的なコンピュータとしての構成を有していても良い。また、ロボット制御装置50は、プロセッサ51に対してメモリ52(ROM、RAM、不揮発性メモリ等)、入出力インタフェース53、各種操作スイッチを含む操作部54等がバスを介して接続された、一般的なコンピュータとしての構成を有していても良い。
 視覚センサ70は、濃淡画像やカラー画像を撮像するカメラでも、距離画像や3次元点群を取得できるステレオカメラや3次元センサでもよい。ロボットシステム100には、複数台の視覚センサが配置されていても良い。視覚センサ制御装置40は、対象物のモデルパターンを保持しており、撮影画像中の対象物の画像とモデルパターンとのパターマッチングにより対象物を検出する画像処理を実行する。なお、図1では視覚センサ70をロボット30のアーム先端に取り付ける例を示しているが、視覚センサ70は作業空間内で作業台2上の対象物1を撮影可能な既知の位置に固定されていても良い。或いは、ロボット30が対象物1を把持し、作業空間内に固定設置された視覚センサに対象物を見せる動作を行うことで対象物1の検出、検査等を行う構成例も有り得る。
 図4は、視覚センサ制御装置40及びロボット制御装置50の主要な機能ブロックを表した機能ブロック図である。図4に示すように、視覚センサ制御装置40は、視覚センサ70で撮像された入力画像401に対する画像処理を実行する画像処理部402と、ロボット30に設定された基準座標系に対する視覚センサ70の相対的位置を定めるキャリブレーションデータを記憶するキャリブレーションデータ記憶部403とを備える。画像処理部402は、一例として、モデルパターンを用いてパターンマッチングにより入力画像から対象物1を検出する画像処理を実行する。
 ロボット制御装置50は、教示装置10から入力される動作指令、或いは、内部のメモリに保持した制御プログラムにしたがってロボット30の動作を制御する動作制御部501を備える。一例として、画像処理部402は、対象物1の検出位置を動作制御部501に提供し、動作制御部501は、画像処理部402から提供される検出位置を用いて対象物1のハンドリングを行う。
 教示装置10は、ロボット30を教示する(すなわち、制御プログラムを作成する)ために用いられる。教示装置10として、教示操作盤、タブレット端末、スマートフォン、パーソナルコンピュータ等の各種情報処理装置を用いることができる。図5は、教示装置10のハードウェア構成例を表す図である。図5に示すように、教示装置10は、プロセッサ11に対して、メモリ12(ROM、RAM、不揮発性メモリ等)、表示部13、キーボード(或いはソフトウェアキー)等の入力装置により構成される操作部14、入出力インタフェース15等がバスを介して接続された、一般的なコンピュータとしての構成を有していても良い。
 以下で詳細に説明するように、教示装置10は、ロボット30の制御プログラムを構成する機能を表すアイコンによるプログラミングを可能とするように構成されている。図6は、教示装置10の機能ブロック図である。図6に示すように、教示装置10は、アイコンによる制御プログラムの作成・編集を行うためのプログラム作成部110を備える。プログラム作成部110は、アイコンのデータを記憶するアイコンデータ記憶部111と、制御プログラム作成のための各種画面を生成する画面生成部112と、制御プログラム作成・編集のための各種ユーザ操作を受け付ける操作入力受付部113と、プログラム生成部114と、実行部115と、パラメータ設定部116と、関連情報表示制御部117とを備える。
 アイコンデータ記憶部111は、例えば不揮発性メモリにより構成され、アイコンに関する各種情報を記憶する。アイコンに関する情報は、アイコンの図案に関する情報、アイコンの機能に対して設定されるパラメータ(設定情報)、アイコンの機能を簡潔に表した文字列等を含む。なお、アイコンデータ記憶部111には、各アイコンのパラメータ設定としてデフォルト値が設定されていても良い。
 画面生成部112は、アイコンを用いた制御プログラムの作成を行うためのプログラム作成画面500を生成する。プログラム作成画面500は、一例として図7に示されるように、ロボット30の制御プログラムを構成する機能を表す1以上のアイコンの一覧を表示する第1の領域(アイコン表示領域200)と、第1の領域から選択したアイコンを配置することで制御プログラムを作成するための第2の領域(プログラム作成領域300)とを含む。図7に例示したようなプログラム作成画面500において、ユーザは、アイコン表示領域200から所望のアイコンを選択してプログラム作成領域300に並べる。そして、ユーザは、プログラム作成領域300に配置した各アイコンの機能に関するパラメータを必要に応じ設定する。これにより、ユーザは、プログラム言語の文法の知識を必要とせずに、制御プログラムを作成することができる。
 操作入力受付部113は、プログラム作成画面500に対する各種操作入力を受け付ける。例えば、操作入力受付部113は、アイコン表示領域200或いはプログラム作成領域300に配置されたアイコンの一つに入力装置のカーソルが位置合わせされる操作に応じてそのアイコンを選択したり、アイコン表示領域200に配置されたアイコンをドラッグアンドドロップしてプログラム作成領域300に並べる操作入力を支援する。
 プログラム生成部114は、プログラム作成領域300に動作順に配置された1以上のアイコンからプログラム言語による制御プログラムを生成する。
 実行部115は、プログラム作成領域300に配置されたアイコンに対する実行を指示するユーザ操作に応じてアイコンを実行する。実行部115は、プログラム作成領域300に配置されたアイコンを一括して実行したり、プログラム作成領域300の1又は複数のアイコンを実行することができる。例示として、実行部115は、プログラム作成領域300にアイコンが並べられた状態で実行タブ651(図7参照)が操作されると、プログラム作成領域300に並べられたアイコンを順に実行し、プログラム作成領域300においてアイコンを選択し実行を指示する操作(カーソルを合わせてクリックする操作(或いはタップする操作))がなされたことに応じて当該アイコンを実行するよう構成されていても良い。なお、アイコン(プログラム)に対する実行指示はユーザ操作による場合に限られない。例えば、教示装置に入力される外部からの信号(例えば、各種機器からロボット30或いはロボット制御装置50に入力される信号)によりアイコン(プログラム)が実行されても良い。
 パラメータ設定部116は、プログラム作成領域300或いはアイコン表示領域200内で選択されたアイコンに対しパラメータ設定を行う機能を提供する。パラメータ設定部116は、例えば、アイコンが選択された状態で詳細タブ652(図7参照)が選択されるとパラメータ入力を行うための画面を生成して、パラメータ設定入力を受け付ける。ここで、パラメータ設定とは、例えば、以下のようなものである。

視覚センサを用いた検出機能に対応する「見るアイコン」:
・カメラの初期設定
・対象物の教示設定
・撮影位置の設定

直線移動の機能に対応する「直線移動アイコン」:
・動作速度
・位置決め設定
・位置レジスタの指定

なお、上述したように、これらパラメータには、予めデフォルト値が設定されていても良い。
 関連情報表示制御部117は、アイコン表示領域200又はプログラム作成領域300にあるアイコンに対する選択操作、又は、プログラム作成領域300に配置されたアイコンに対し実行を指示する操作の少なくともいずれかに応じて、選択操作又は実行を指示する操作の対象のアイコンに関連する情報を表示部13の表示画面に表示する。アイコンに関連する情報には、アイコンのパラメータ設定情報、アイコンに関連付けられたセンサや機器の情報、アイコンの実行結果又は実行中の状態、アイコンに係わるプログラムの内部変数等のいずれかが含まれる。
 以下では、教示装置10による、プログラム作成画面500を介したアイコンを選択する操作や実行を指示する操作に応じた各種情報の表示の実施例について説明する。
(実施例1)
図7を参照し実施例1について説明する。実施例1は、アイコン表示領域200又はプログラム作成領域300においてアイコンが選択されることに応じて、そのアイコンに関連するセンサの情報を表示する例である。ここでは、例示として「見るアイコン601」が選択されるものとする。見るアイコン601は、視覚センサ70により対象物を検出し対象物の位置情報を取得する機能を提供する。
 ここで、画面生成部112により生成されるプログラム作成画面500の基本的な構成について説明する。図7に示すように、プログラム作成画面500は、プログラム作成に用いることのできる各種アイコンの一覧を表示するアイコン表示領域200と、アイコンを動作順に配置して制御プログラムを作成するためのプログラム作成領域300とを含む。アイコンの選択操作或いはアイコンの実行を指示する操作に応じてそのアイコンに関連する情報を表示するポップアップ画面700が表示される。ポップアップ画面700は、アイコン表示領域200及びプログラム作成領域300とは別の画面(ウィンドウ)として(それらの領域と重ならないように)表示されるのが好ましい。なお、アイコンに関連する情報を表示する形態はポップアップ画面に限られるものではなく、様々な表示形態を採用することができる。
 プログラム作成画面500は、更に、状態表示領域450を含んでいても良い。なお、実施例1-7では、状態表示領域450に現在のロボット30の位置姿勢を表すロボットモデル30Mを表示する例を示す。なお、このようなロボットモデル30Mの画像は、教示装置10においてロボット制御装置50からロボット30の現在の位置姿勢情報を取得し、その位置姿勢情報にしたがってロボット30の3Dモデルデータを仮想の作業空間内で動作させることで実現することができる。
 図7に示す実施例1の動作では、アイコン表示領域200内で見るアイコン601にカーソル671を合わせることによって見るアイコン601が選択されている。なお、対象のアイコンをアイコン表示領域200で選択してドラッグアンドドロップしてプログラム作成領域300に配置する操作の間もそのアイコンが選択されている状態としても良い。
 アイコン表示領域200内での見るアイコン601の選択に応じて、関連情報表示制御部117は、見るアイコン601に関連付けられている視覚センサ70の情報として、視覚センサ70の撮影領域のライブ画像M1をポップアップ画面700に表示する。ユーザはこのようなライブ画像M1を確認することで、見るアイコン601に関連付けられた視覚センサ70の視野で何が見えるか、その視覚センサの視野に対象物が正しく配置されているか等を即座に確認することができる。ユーザがプログラム作成のために見るアイコン601を選択するのみでライブ画像M1が即座に表示されるので、ユーザは視覚センサ70の視野の画像を確認するために煩雑な操作を行う必要はない。
 また、図8に示しように、関連情報表示制御部117は、プログラム作成領域300内に配置された見るアイコン601が選択されたことに応じて、視覚センサ70のライブ画像M1を表すポップアップ画面700を表示しても良い。
 図7及び図8に示すように、対象のアイコン(ここでは見るアイコン601)が選択されている間、そのアイコンはハイライト表示される。関連情報表示制御部117は、対象のアイコンが選択されている間、そのアイコンアに関連する情報(ここではライブ画像M1)をポップアップ画面700に表示するようにしても良い。
 このような実施例によれば、アイコンに関連する情報がプログラム作成画面やパラメータ設定画面とは別にポップアップ表示されるので、ユーザは、プログラム作成領域300全体を把握しながら且つ、アイコンに関連する情報も確認しつつプログラム作成を行うことができる。アイコンを用いたプログラミングにおいて、プログラミングを支援する各種情報が極めて簡単な操作で提供され、いっそう直感的で且つ効率的なプログラミングが可能になる。実施例1によるこのような効果は、以下で述べる各実施例にも共通する。
(実施例2)
実施例2について図9を参照して説明する。実施例2は、プログラム作成領域300に配置されたアイコンに対して実行を指示する操作が行われた場合に、そのアイコンの実行結果の情報を表示する例である。図9に示すプログラム作成画面500では、ユーザ操作により、プログラム作成領域300には見るアイコン601、動作(ビジョン)アイコン602、及び直線移動アイコン603が配置されている。なお、動作(ビジョン)アイコン602は、見るアイコン601で検出された位置にロボット30(制御部位)を移動させて対象物を取り出す機能を提供する。直線移動アイコン603は、ロボット30(制御部位)を直線移動させる機能を提供する。ここでは、ユーザが、プログラム作成領域300で見るアイコン601を選択して実行させる操作(例えば、見るアイコン601にカーソルを合わせてクリック(又はタップ)する操作)を行ったとする。
 見るアイコン601の実行完了に応じて、関連情報表示制御部117は、ポップアップ画面700に、視覚センサ70(視覚センサ制御装置40)による検出結果の画像を表示させる。図9に示すように、ポップアップ画面700内には、検出された対象物1の画像710と、検出された対象物の数を表す文字情報711(“検出数=1”)が表示されている。
 なお、ここでは、見るアイコン601を選択して実行させる操作に応じて見るアイコン601の実行結果を表示する場合の動作例について説明したが、実行タブ651の選択により、図9のプログラム作成領域300に配置されたアイコン全体に対する実行が指示された場合に、見るアイコン601の実行完了に応じてその実行結果を表示するようにしても良い。
 このように本実施例によれば、ユーザは、プログラム作成画面500において視覚センサに係わるアイコン或いは視覚センサに係わるアイコンを含むプログラムに対する実行を指示する操作を行うのみで、当該アイコンの実行結果(すなわち、教示した対象物の有無を示す検出結果)を迅速に確認することができる。
(実施例3)
実施例3について図10を参照して説明する。実施例3は、アイコン表示領域200において力センサを用いた機能に関するアイコンが選択或いは実行指示されることに応じて、そのアイコンに関連する力センサの情報を表示する例である。なお、本実施例では、ロボットシステム100において図2に示すように力センサ71が配置されている場合を想定する。図10に示されるように、アイコン表示領域200において力センサ71を用いた力制御に関連する「押付け動作アイコン604」が選択されたものとする。力センサ71は、6軸力センサであるものとする。
 この場合、関連情報表示制御部117は、押付け動作アイコン604の選択に応じて、力センサ71の検出値を表すグラフ721をポップアップ画面700に表示する。グラフ721は、力センサ71の出力値として、力センサ71に設定した座標系におけるXYZ軸方向の負荷の大きさ(X,Y,Z)及びXYZ軸周りのモーメント(W,P,R)の時間推移を示す。なお、グラフ721において縦軸は負荷又はモーメントの大きさを表し、横軸は時間を表す。
 このように、本実施例によれば、ユーザはプログラム作成画面500において力センサに関連するアイコンを選択するのみで、力センサの現在の検出値を即座に確認することができる。
 なお、上記では、アイコン表示領域200に表示された押付け動作アイコン604が選択されたことに応じて力センサ71の検出値のグラフ721を表示する動作例について説明したが、プログラム作成領域300に配置された押付け動作アイコン604に対する選択・実行指示の操作に応じて、押付け動作アイコン604の実行中に実行中の状態に関する情報として、又は、実行後に実行結果に関する情報として力センサ71の検出値のグラフ721をポップアップ画面700に表示するようにしても良い。
 本実施例によれば、力制御に係わる制御プログラムをいっそう直感的且つ効率的に作成することが可能になる。
(実施例4)
実施例4について図11を参照して説明する。実施例4は、ロボット30(ロボット制御装置50)と接続している機器(IO機器)に関連するアイコンに対する選択或いは実行指示に応じて当該機器に関する情報を表示する例である。図11のプログラム作成画面500において、プログラム作成領域300に配置されているアイコンのうち、「はなすアイコン605」が選択され実行指示が行われた状態であるとする。はなすアイコン605は、ハンド33を開く命令に対応する。
 この場合、関連情報表示制御部117は、はなすアイコン605に対する選択・実行指示の操作に応じて、ハンド33のIO制御の状態を表すIO情報731と、ハンド33の現在の開閉状態をグラフィカルに示すハンド画像732とをポップアップ画面700に表示する。例えば、IO制御の状態を表すIO情報731及びハンド画像732は、はなすアイコン605の実行中にリアルタイムに表示されても良く、或いは、はなすアイコン605の実行後の実行結果を表す情報として表示されても良い。なお、図11では、例示として、ハンド33に関するIO情報731が“IO1=オン”であり、ハンド画像732がハンドオープンの状態である場合の表示例を記載している。関連情報表示制御部117は、IO制御の情報をロボット制御装置50から取得することができる。或いは、教示装置10とハンド33を直接接続する構成とし、教示装置10がハンド33(ハンド33の制御部)からハンド33の制御の状態を直接取得するようにしても良い。
(実施例5)
実施例5について図12-14を参照して説明する。実施例5は、アイコンの選択或いは実行指示に応じて当該アイコンのパラメータ(設定情報)を表示する場合の例である。図12-図13は、指定した時間だけプログラムを待機させる命令のアイコン(待機設定アイコン606)を選択した或いは実行を指示したことに応じて待機設定アイコン606に関する情報を表示する場合の動作例を示す。
 図12に示すプログラム作成画面500では、アイコン表示領域200において待機設定アイコン606が選択されている。待機設定アイコン606の選択に応じて、関連情報表示制御部117は、待機設定アイコン606の設定時間の情報741(“待機設定時間 6sec”)をポップアップ画面700に表示する。これにより、ユーザは、対象のアイコンを選択するのみで、対象のアイコンの設定情報を確認することができる。なお、図12のポップアップ画面700に表示されている“待機設定時間 6sec”は、ユーザがパラメータ設定画面を介して事前に設定した値であるとする。ユーザによる待機時間の設定が未実施の状態で待機設定アイコン606が選択された場合には、関連情報表示制御部117は、待機設定時間のデフォルト値(例えば5sec)を設定時間の情報741として表示しても良い。なお、図12のポップアップ画面700では、待機設定アイコン606は動作中でないため、実際の待機時間の経過時間を表す経過時間情報742は、0.0secと表示されている。
 図13に示すプログラム作成画面500では、プログラム作成領域300に配置された4つのアイコンに対する実行を指示するユーザ操作が行われ、現在、待機設定アイコン606が実行されている状態である。この場合、関連情報表示制御部117は、待機設定アイコン606の実行開始に応じて、待機設定アイコン606の設定に関する情報及び当該アイコンの実行中の状態に関する情報をポップアップ画面700に表示させる。ここでは、関連情報表示制御部117は、待機設定アイコン606の設定時間の情報741(“待機設定時間 6sec”)と共に、待機時間についてのリアルタイムの経過時間情報742(“3.3sec”)を表示させる。これにより、ユーザは、ロボット30がどれくらいの間、停止しているかを一目で確認することができる。
 図14は、アイコン表示領域200において直線移動のコマンドに対応する直線移動アイコン603を選択することにより当該直線移動アイコン603に関する設定情報を表示する場合の例を示している。
 図14に示すプログラム作成画面500において、アイコン表示領域200における直線移動アイコン603がカーソル671で指定され選択された状態であるものとする。直線移動アイコン603の選択に応じ、関連情報表示制御部117は、直線移動アイコン603の設定内容の情報751をポップアップ画面700中に表示する。直線移動アイコン603の情報751は、直線移動の動作速度(1000mm/sec)、移動後に目的位置で停止させる「位置決め」動作であることの指定、及び位置指定として位置レジスタ[2]が用いられること、及びコメント(‘取り出し位置’)を含んでいる。
 このようにアイコンの設定情報を表示することで、ユーザは設定ミスを容易に発見できるようになる。よって、実施例5は、プログラム作成(教示)を行うユーザを支援し、プログラミングを効率化する。
(実施例6)
実施例6について図15及び図16を参照して説明する。実施例6は、対象のアイコンに係わるプログラムの内部変数を表示する動作例に関する。ここでは、レジスタに関するアイコン(レジスタアイコン607)が選択された場合の情報の表示について説明する。
 図15に示すプログラム作成画面500では、アイコン表示領域200においてレジスタアイコン607がカーソル671により指定され選択されている。レジスタアイコン607の選択に応じ、関連情報表示制御部117は、ポップアップ画面700に、レジスタアイコン607の設定情報761としてレジスタの値(レジスタ[1]=10)を表示する。
 なお、レジスタアイコン607の設定内容にエラーがある場合、関連情報表示制御部117は、ポップアップ画面700内において、設定に誤りがあることを表示するようにしても良い。図16の例では、レジスタアイコン607の設定において無効なレジスタ番号(レジスタ[0])が指定されているために、ポップアップ画面700において、レジスタ番号“0”が誤りであることを赤色その他の表示態様でハイライト表示している状態が示されている。
 なお、プログラムの内部変数の表示に関しても、対象のアイコンの実行中に或いは実行後に実行結果としてポップアップ表示するようにしても良い。
 本実施例によれば、プログラムの内部変数が提示され、また、変数の設定等にエラーがあればエラー情報も提示されるので、プログラム作成(教示)を行うユーザを支援しプログラミングを効率化することができる。
(実施例7)
 実施例7について図17を参照して説明する。実施例7は、プログラム作成領域300に配置されたアイコンのプログラムの実行を指示する操作が行われた場合に、あるアイコンに関して当該アイコンの実行前の時点で当該アイコンに関連する情報をポップアップ表示する例である。
 図17に示すように、プログラム作成画面500において、プログラム作成領域300には、見るアイコン601、動作(ビジョン)アイコン602、及び直線移動アイコン603が配置されている。実行タブ651が操作されてプログラム作成領域300のプログラムの実行が指示され、現在、2番目の動作(ビジョン)アイコン602が実行中であるとする。関連情報表示制御部117は、実行部115からプログラムの実行状態を取得することで、直線移動アイコン603の実行が開始されるのに先立って、直線移動アイコン603に関連する情報をポップアップ表示する。図17には、動作(ビジョン)アイコン602の実行中に、直線移動アイコン603の設定内容の情報751が表示されている状況が示されている。
 なお、図17では一つのアイコンについて当該アイコンの実行前に情報を提示する例について記載しているが、プログラム作成領域300に含まれる複数のアイコンの各々について実行前に情報を提示するようにしても良い。
 本実施例によれば、アイコンに関連する情報がそのアイコンの実行前に表示されるので、ユーザは、実行が開始される予定のアイコンに関連する情報を事前に把握することができる。例えば、実行される予定のアイコンの設定内容にエラー等が含まれる場合、そのアイコンが実行される前にプログラムを停止する等の対応をとることもできる。
 以上述べたように、本実施形態によれば、ロボットの制御プログラムのプログラミングにおいて、プログラミングを支援する各種情報が極めて簡単な操作で提供され、いっそう直感的で且つ効率的なプログラミングが可能になる。
第2実施形態
 次に第2実施形態に係る教示装置10Aについて説明する。図18に示すように、教示装置10Aは、第1実施形態に係る教示装置10に対して属性情報設定部118を付加した構成を有する。教示装置10Aは、上述した教示装置10の機能を包含する。なお、教示装置10Aによるプログラミングの対象のロボットシステムは、溶接ロボットシステムである場合を想定する。溶接ロボットシステムの場合、図1に示したロボットシステム100において、ロボット30のアーム先端部にハンド33に代えて溶接トーチを取り付け、溶接トーチに溶接電流を供給する溶接電源装置をロボット制御装置50に接続して、ロボット制御装置50の制御の下で溶接電源装置を動作させる構成とすることで実現することができる。本実施形態では、このような溶接ロボットシステムを想定する。
 属性情報設定部118は、アイコンに関連する情報として表示すべき表示内容を定義する表示属性情報を各アイコンに対して設定する機能を提供する。設定された表示属性情報は、アイコンデータ記憶部111にアイコンに関連付けて記憶される。関連情報表示制御部117は、アイコンに対する実行指示に応じてアイコンに関する情報を表示する場合に、当該アイコンに設定されている表示属性情報にしたがって表示内容を決定する。
 表示属性情報を用いた情報の表示例について図19を参照し説明する。図19に示す例の場合、プログラム作成領域300には、溶接プログラムとして、直線移動アイコン621、622、溶接起動アイコン623、溶接点移動アイコン624、直線移動アイコン625、626が配置されている。溶接起動アイコン623は溶接電源装置を起動する命令を表す。また、溶接起動アイコン623は、長い帯状の形状を有し、その中に配置されたアイコン(溶接点移動アイコン624)が溶接中に実行されることを表す。これらのアイコン(溶接プログラム)に対する実行指示により、初期位置から溶接待機位置に移動して溶接を開始し、溶接終了後再び初期位置に戻る溶接動作が行われる。
 上記アイコンに対して以下の様に表示属性情報が設定されているものとする。

直線移動アイコン:‘動作’
溶接起動アイコン:‘アーク溶接’

表示属性情報が‘動作’の直線移動アイコンが実行される間、関連情報表示制御部117は、ロボットの位置情報をロボット制御装置50からリアルタイムで取得してロボットの動作を表すロボットモデル30Mを、一例として状態表示領域450に表示する。表示属性情報が‘アーク溶接’である溶接起動アイコン623の実行中、関連情報表示制御部117は、状態表示領域450に表示する表示内容を、溶接状態を示す情報に切り換える。ここでは、溶接状態を示す情報として、アーク溶接中の電流、電圧をそれぞれ示すインジケータ画像771、772が表示される例を示す。関連情報表示制御部117は、溶接電流、電圧をロボット制御装置50を介して取得する。
 このように、各アイコンに表示属性情報を設定可能とすることで、ユーザ操作を要することなく、アイコンの機能に応じてユーザが所望する情報を自動的に切り替えながら表示させることが可能となる。
 なお、アイコンに関連する情報を表示する時間や、表示を開始する時点等の設定は様々な例が有り得る。このような情報表示のタイミングに関しても設定可能であっても良い。例えば、溶接起動アイコン623について、溶接命令実行後3秒間は画面を切り替えない、といった設定も有り得る。また、表示属性情報毎にプライオリティを設定可能であっても良い。例えば、表示属性‘アーク溶接’に高いプライオリティを設定しておくと、状態表示領域450に表示すべき表示内容に競合が生じた場合に、プライオリティの高い情報を優先して表示させることができる。これら、情報の表示のタイミングやプライオリティに関しても、各アイコンに関する属性として、属性情報設定部118を介して設定可能であっても良い。
 各アイコンには、表示属性情報に加えて、実行状態属性がさらに属性情報設定部118を介して設定可能であっても良い。実行状態属性によるアイコンに関する情報の表示例について図20を参照して説明する。例示として、溶接起動アイコン623に、実行状態属性として‘溶接有効’又は‘溶接無効’が設定可能であるものとする。実行状態属性が‘溶接有効’である場合(すなわち、アーク放電が有効にされている場合)には、関連情報表示制御部117は、アーク溶接の電流、電圧をそれぞれを示すインジケータ画像771、772を状態表示領域450に表示させる。他方、実行状態属性が‘溶接無効’である場合(すなわち、アーク放電が無効にされている場合)には、関連情報表示制御部117は、溶接トーチ先端部の加工部位のライブ画像を状態表示領域450に表示させる。
 上記構成により、溶接有効の設定の場合には、ユーザが所望するアーク溶接中の電流、電圧の情報を提示し、他方、溶接無効の設定の場合には、ユーザが所望する情報として溶接トーチ先端部の位置を確認可能なライブ画像M2を提供することができる。なお、実行状態属性に応じてどのような情報をするかに関する設定も、属性情報設定部118を介して設定可能(すなわち、カスタマイズ可能)であっても良い。
 このように、各アイコンに実行状態情報を設定可能とすることで、ユーザ操作を要することなく、アイコンの実行状態に応じて、ユーザが所望する情報を自動的に切り替えながら表示させることが可能となる。
 なお、属性情報設定部118は、上述した各種属性情報の設定を、ユーザ操作を介して受け付けても良い。或いは、各種属性情報は、外部装置から教示装置10Aに入力されても良く、予めアイコンデータ記憶部111に記憶されていても良い。本第2実施形態では、アイコンに関連する情報を状態表示領域450に表示する例を記載したが、アイコンに関連する情報は第1実施形態の場合の様にポップアップ表示されても良い。
 以上、典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施形態に変更及び種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
 上述の実施形態では、ロボットの制御プログラムを構成する機能を表す命令としてアイコンを用いたプログラミングを可能とする教示装置において、プログラム作成画面に配置された命令(アイコン)に対する選択或いは実行指示に応じて、当該選択又は実行指示の対象の命令(アイコン)に関連する情報を表示する構成に関して説明した。上述の実施形態における選択又は実行指示に応じて命令(アイコン)に関連する情報を表示する各種機能は、ロボットの制御プログラムを構成する機能を表す命令としてテキストベースの命令文によるプログラミングを行うように構成された教示装置にも適用することができる。この場合、教示装置(画面生成部)は、プログラム作成画面として、命令文の一覧を表示する第1の領域(命令一覧表示領域)と、第1の領域から選択した命令文を配置してプログラムを作成するための第2の領域(プログラム作成領域)とを作成する。
 例えば、第1の領域(命令一覧表示領域)は、
‘チョクセン’
‘カクジク’
‘ヨビダシHAND_OPEN’
‘ヨビダシHAND_CLOSE’
‘ビジョンケンシュツ’
‘ビジョンホセイデータシュトク’
といった命令文の一覧を表示するポップアップメニュー画面として構成されても良い。ここで、命令文‘チョクセン’はロボットの制御部位を直線の軌道で移動させる命令に対応し、命令文‘カクジク’はロボットを各軸動作で移動させる命令に対応し、‘ヨビダシHAND_OPEN’はハンドを開く命令に対応し、命令文‘ヨビダシHAND_CLOSE’はハンドを閉じて対象物をつかむ命令に対応し、‘ビジョンケンシュツ’は視覚センサで対象物を撮像する命令に対応し、‘ビジョンホセイデータシュトク’は撮像された画像から対象物の位置を検出する命令に対応する。
 ユーザは、第1の領域(ポップアップメニュー画面)から命令を選択して、第2の領域(プログラム作成領域)に配置してプログラム作成を行い、また、必要に応じ各命令文の詳細なパラメータを指定する。下記に第2の領域(プログラム作成領域)に記述したプログラムの一例を示す。

1:チョクセンイチ[1] 2000mm/sec イチギメ ;
2: ;
3: ビジョンケンシュツ 'A' ;
4: ビジョンホセイデータシュトク 'A' ビジョンレジ[1] ジャンプラベル[100] ;
5: ;
6: !Handling ;
7:チョクセンイチ[2] 2000mm/sec ナメラカ100 ビジョンホセイ,ビジョンレジ[1] ツールホセイ,イチレジ[1] ;
8:チョクセンイチ[2] 500mm/sec イチギメビジョンホセイ,ビジョンレジ[1] ;
9: ヨビダシ HAND_CLOSE ;
10:チョクセンイチ[2] 2000mm/sec ナメラカ100 ビジョンホセイ,ビジョンレジ[1] ツールホセイ,イチレジ[1] ;

上記プログラムは、所定位置に移動させた視覚センサ(カメラA)により、対象物の位置を検出し(第1-第5行)、検出された位置に基づきロボットの位置補正を行いながら対象物を把持する動作を実現するものである(第6-第10行)。
 このように命令文によるプログラミングを行う場合においても、教示装置は、図6に示した機能ブロックと同等の機能ブロック構成により、第1の領域(命令一覧表示領域)から選択した命令文を第2の領域(プログラム作成領域)に配置してプログラム作成を行うことに関して上述の実施形態と同等の機能を提供する。そして、教示装置(関連情報表示制御部)は、第1の領域又は第2の領域にある命令文に対する選択、又は、第2の領域に配置された命令文に対する実行指示に応じて、対象の命令文に関連する情報を例えばポップアップ画面として表示する。
 上述の実施形態では、主に、一つのポップアップ画面を表示する例について説明したが、例えば、ユーザ操作により複数のアイコンが選択され、或いは、複数のアイコンに対する実行指示が成された場合に、複数のアイコンそれぞれについての関連情報を複数のポップアップ画面に提示するようにしても良い。
 上述の実施形態では、プログラム作成画面500が一つの矩形枠状の態様で表示され、プログラム作成領域300及びアイコン表示領域200がその一つの矩形枠内に含まれるような表示形態を示したが、これは例示であり、プログラム作成画面の画面表示形態も様々な例が有り得る、例えば、プログラム作成領域300及びアイコン表示領域200がそれぞれ別々のウィンドウとして表示されても良い。この場合、プログラム作成領域300、アイコン表示領域200、ポップアップ画面700がそれぞれ別のウィンドウとして表示される。
 図2及び図4で示した、視覚センサ制御装置、ロボット制御装置、及び教示装置の機能ブロックの配置は一例であり、これらの機能ブロックの配置は適宜変更することができる。
 図4に示した教示装置の機能ブロックは、教示装置のプロセッサが、記憶装置に格納された各種ソフトウェアを実行することで実現されても良く、或いは、ASIC(Application Specific Integrated Circuit)等のハードウェアを主体とした構成により実現されても良い。
 1  対象物
 2  作業台
 10  教示装置
 11  プロセッサ
 12  メモリ
 13  表示部
 14  操作部
 15  入出力インタフェース
 30  ロボット
 30M  ロボットモデル
 31  手首フランジ
 33、33A  ハンド
 40  視覚センサ制御装置
 41  プロセッサ
 42  メモリ
 43  入出力インタフェース
 50  ロボット制御装置
 51  プロセッサ
 52  メモリ
 53  入出力インタフェース
 54  操作部
 70  視覚センサ
 71  力センサ
 100  ロボットシステム
 110  プログラム作成部
 111  アイコンデータ記憶部
 112  画面生成部
 113  操作入力受付部
 114  プログラム生成部
 115  実行部
 116  パラメータ設定部
 117  関連情報表示制御部
 118  属性情報設定部
 200  アイコン表示領域
 300  プログラム作成領域
 401  入力画像
 402  画像処理部
 403  キャリブレーションデータ記憶部
 450  ロボットモデル表示領域
 501  動作制御部
 601  見るアイコン
 602  動作(ビジョン)アイコン
 603  直線移動アイコン
 604  押付け動作アイコン
 605  はなすアイコン
 606  待機設定アイコン
 607  レジスタアイコン
 651  実行タブ
 652  詳細タブ
 671 カーソル
 700  ポップアップ画面

Claims (13)

  1.  ロボットの制御プログラムを作成するための教示装置であって、
     前記ロボットの制御プログラムを構成する機能を表す命令によりプログラム作成を行うためのプログラム作成画面を生成する画面生成部と、
     前記プログラム作成画面に配置された命令に対する選択又は実行指示に応じて、前記選択又は前記実行指示の対象の命令に関連する情報を表示する関連情報表示制御部と、
     を備える教示装置。
  2.  前記プログラム作成画面は、前記ロボットの制御プログラムを構成する機能を表す1以上の命令の一覧を表示する第1の領域と、前記第1の領域から選択した命令を配置することで前記制御プログラムを作成するための第2の領域とを有し、
     前記関連情報表示制御部は、前記第1の領域又は前記第2の領域にある命令に対する選択、又は、前記第2の領域に配置された命令に対する実行指示に応じて、前記対象の命令に関連する情報を表示する、請求項1に記載の教示装置。
  3.  前記関連情報表示制御部は、前記プログラム作成画面に配置された命令の選択中に当該命令に関連する情報を表示する、請求項1又は2に記載の教示装置。
  4.  前記関連情報表示制御部は、前記プログラム作成画面に配置された命令に対する実行指示に応じて、前記実行指示の対象の命令に関連する情報を当該命令の実行前、実行中、又は実行後のいずれかの時点で表示する請求項1又は2に記載の教示装置。
  5.  前記関連情報表示制御部は、前記実行指示の対象の命令の実行中に当該命令の実行中の状態に関する情報を表示する、請求項4に記載の教示装置。
  6.  前記関連情報表示制御部は、前記実行指示の対象の命令の実行後に当該命令の実行結果に関する情報を表示する、請求項4に記載の教示装置。
  7.  前記対象の命令に関連する情報は、当該命令のパラメータ設定情報、当該命令に関連付けられたセンサ又は機器の情報、当該命令の実行結果又は実行中の状態、当該命令に係わるプログラムの内部変数のいずれかを含む、請求項1から6のいずれか一項に記載の教示装置。
  8.  前記センサは視覚センサである、請求項7に記載の教示装置。
  9.  前記センサは力センサである、請求項7に記載の教示装置。
  10.  前記関連情報表示制御部は、前記対象の命令に関連する情報をポップアップ表示する、請求項1から9のいずれか一項に記載の教示装置。
  11.  前記命令に関連する情報として表示すべき表示内容を定義する表示属性情報を前記命令に対して設定する属性情報設定部を更に備え、
     前記関連情報表示制御部は、前記命令に対する実行指示に応じて前記命令に関する情報を表示する場合に前記命令に設定されている前記表示属性情報にしたがって表示内容を決定する、請求項1から10のいずれか一項に記載の教示装置。
  12.  前記属性情報設定部は、更に、前記命令の実行状態に関する情報である実行状態属性を設定するように構成され、
     前記関連情報表示制御部は、前記命令に対する実行指示に応じて前記命令に関する情報を表示する場合に、前記実行状態属性に更に基づいて表示内容を決定する、請求項11に記載の教示装置。
  13.  前記命令はアイコン又は命令文により表されている、請求項1から12のいずれか一項に記載の教示装置。
PCT/JP2022/002464 2021-01-28 2022-01-24 教示装置 WO2022163590A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202280009306.6A CN116685916A (zh) 2021-01-28 2022-01-24 示教装置
JP2022578374A JP7553612B2 (ja) 2021-01-28 2022-01-24 教示装置
DE112022000322.7T DE112022000322T5 (de) 2021-01-28 2022-01-24 Einlernvorrichtung
US18/254,880 US20240091927A1 (en) 2021-01-28 2022-01-24 Teaching device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-011999 2021-01-28
JP2021011999 2021-01-28

Publications (1)

Publication Number Publication Date
WO2022163590A1 true WO2022163590A1 (ja) 2022-08-04

Family

ID=82654521

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/002464 WO2022163590A1 (ja) 2021-01-28 2022-01-24 教示装置

Country Status (6)

Country Link
US (1) US20240091927A1 (ja)
JP (1) JP7553612B2 (ja)
CN (1) CN116685916A (ja)
DE (1) DE112022000322T5 (ja)
TW (1) TW202228949A (ja)
WO (1) WO2022163590A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116261A1 (ja) * 2022-11-29 2024-06-06 ファナック株式会社 プログラム生成装置、方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249026A (ja) * 1995-03-10 1996-09-27 Fanuc Ltd ロボットを含むシステムのプログラミング方法
JP2011158981A (ja) * 2010-01-29 2011-08-18 Mori Seiki Co Ltd 加工状況監視装置
JP2015182142A (ja) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
JP6498366B1 (ja) * 2018-07-10 2019-04-10 三菱電機株式会社 教示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249026A (ja) * 1995-03-10 1996-09-27 Fanuc Ltd ロボットを含むシステムのプログラミング方法
JP2011158981A (ja) * 2010-01-29 2011-08-18 Mori Seiki Co Ltd 加工状況監視装置
JP2015182142A (ja) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
JP6498366B1 (ja) * 2018-07-10 2019-04-10 三菱電機株式会社 教示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116261A1 (ja) * 2022-11-29 2024-06-06 ファナック株式会社 プログラム生成装置、方法およびプログラム

Also Published As

Publication number Publication date
US20240091927A1 (en) 2024-03-21
DE112022000322T5 (de) 2023-09-28
CN116685916A (zh) 2023-09-01
JPWO2022163590A1 (ja) 2022-08-04
JP7553612B2 (ja) 2024-09-18
TW202228949A (zh) 2022-08-01

Similar Documents

Publication Publication Date Title
US10882189B2 (en) Control device and robot system
JP6343353B2 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
US20190202058A1 (en) Method of programming an industrial robot
EP0792726A1 (en) Teach pendant
US10095216B2 (en) Selection of a device or object using a camera
JP2004351570A (ja) ロボットシステム
JP5672326B2 (ja) ロボットシステム
JP7553559B2 (ja) プログラミング装置
WO2022163590A1 (ja) 教示装置
JP7440620B2 (ja) プログラム編集装置
KR20180081773A (ko) 산업적 시설을 제어하기 위한 응용프로그램들의 단순화된 변경을 위한 방법
JP2011045937A (ja) ロボットシステム
EP3411195B1 (en) Controlling an industrial robot using interactive commands
JP7035555B2 (ja) 教示装置、及びシステム
CN108369413A (zh) 工业机器人和用于控制机器人自动选择接下来要执行的程序代码的方法
KR102403021B1 (ko) 로봇 교시 장치 및 이를 이용한 로봇 교시 방법
TW202335810A (zh) 教示操作盤及機器人控制系統
WO2024028977A1 (ja) 教示装置
JP2011141584A (ja) 入力制御機器
JP2007207196A (ja) プログラマブルロジックコントローラ、情報処理装置、制御プログラム、およびテーブル作成プログラム
JP2003039357A (ja) ロボットの教示装置
CN114800482B (zh) 创建机器人的控制程序的方法、及其系统、以及记录介质
WO2023026490A1 (ja) 教示装置
JP7436796B2 (ja) ロボットのプログラム作成支援装置
TWM410265U (en) Human-machine interface system with automatic measurement

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22745811

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022578374

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18254880

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202280009306.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 112022000322

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22745811

Country of ref document: EP

Kind code of ref document: A1