[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2022230854A1 - データ処理装置、データ処理方法及びデータ処理システム - Google Patents

データ処理装置、データ処理方法及びデータ処理システム Download PDF

Info

Publication number
WO2022230854A1
WO2022230854A1 PCT/JP2022/018831 JP2022018831W WO2022230854A1 WO 2022230854 A1 WO2022230854 A1 WO 2022230854A1 JP 2022018831 W JP2022018831 W JP 2022018831W WO 2022230854 A1 WO2022230854 A1 WO 2022230854A1
Authority
WO
WIPO (PCT)
Prior art keywords
controller
movable part
data processing
image data
data
Prior art date
Application number
PCT/JP2022/018831
Other languages
English (en)
French (fr)
Inventor
ジェイド ファウンテン
友佑 水品
Original Assignee
Telexistence株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telexistence株式会社 filed Critical Telexistence株式会社
Priority to KR1020237031576A priority Critical patent/KR20240004248A/ko
Priority to CN202280027818.5A priority patent/CN117121503A/zh
Priority to JP2023517542A priority patent/JPWO2022230854A1/ja
Priority to US18/286,912 priority patent/US20240202877A1/en
Publication of WO2022230854A1 publication Critical patent/WO2022230854A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Definitions

  • the present disclosure relates to a data processing device, a data processing method, and a data processing system.
  • Patent Literature 1 discloses a technique of remotely controlling a robot using a controller worn by an operator and displaying an image captured by an imaging device provided on the robot on a terminal used by the operator. .
  • the present disclosure has been made in view of this point, and aims to provide a data processing device or the like that allows an operator of a device such as a robot to easily operate the device using a controller.
  • a data processing device is a data processing device that processes data for operating a movable part of a device according to a position of a controller, and an operator operates the movable part using the controller.
  • acquiring controller information including the position and acquiring captured image data generated by an imaging device capturing an image of a movable part while the movable part is being operated according to the position.
  • generating composite image data by superimposing a controller image indicating the position included in the controller information on an area corresponding to the movable part on the captured image data; and displaying the composite image data on a display device visible to the operator. and a controller configured to perform:
  • a data processing device or the like that allows an operator of a device such as a robot to easily operate the device using a controller.
  • FIG. 4 is a schematic diagram of a controller image generated by a synthesizing unit;
  • FIG. 3 is a schematic diagram of composite image data displayed by a display device;
  • 4 is a sequence diagram of a data processing method executed by the data processing system;
  • FIG. It is a figure which shows the flowchart of the data processing method which a data processing apparatus performs.
  • FIG. 3 is a schematic diagram of composite image data displayed by a display device;
  • FIG. 3 is a schematic diagram of composite image data displayed by a display device;
  • FIG. 1 is a diagram showing an outline of a data processing system S.
  • the data processing system S provides, for example, a telexistence environment in which the operator U can operate an object in real time while making the operator U feel as if the object at a remote location were nearby. System.
  • the data processing system S has a data processing device 1, an operation device 2, and a robot 3.
  • the data processing device 1 is a device that controls the robot 3 according to the operation performed by the operator U on the operation device 2, and is, for example, a computer.
  • the data processing device 1 may be installed in a room where either the operator U or the robot 3 is present, or may be installed at a location different from the location where the operator U and the robot 3 are located.
  • the operating device 2 is a device worn by the operator U, and has a display device 21, an operating device 22, and a communication section 23.
  • the display device 21 has a display (display device) on which the operator U can visually recognize an image based on the composite image data generated by the data processing device 1, and is, for example, a goggle-type display device.
  • the image displayed by the display device 21 is, for example, a celestial image corresponding to 360 degrees (all directions).
  • the robot 3 is a device that is remotely operated by an operator U and operates based on control data received from the data processing device 1 via the network N.
  • the robot 3 has an imaging device (hereinafter referred to as “camera 31 ”) that generates captured image data, and an image transmission unit 32 that transmits the captured image data generated by the camera 31 to the data processing device 1 .
  • the robot 3 has movable parts such as a head, hands and arms that operate according to the movement of the operation device 2 .
  • the movable parts of the robot 3 operate in synchronization with the position and orientation of the operating device 2 .
  • the robot 3 sends at least one robot state data of tactile sense data indicating the tactile sense detected by the robot 3, sound data indicating sounds collected by the robot 3, and joint state data indicating the state of the joints of the robot 3. It is transmitted to the operation device 2 via the data processing device 1 .
  • the robot 3 according to the present embodiment performs a task of arranging products on shelves according to the operation of the operator U in a store where a large number of products are sold on shelves. The place where 3 is provided and the contents of the work are arbitrary.
  • the data processing device 1 acquires captured image data generated by the camera 31 capturing an image of the front, and causes the display device 21 of the operation device 2 to display the acquired captured image data.
  • the data processing device 1 generates composite image data by superimposing a controller image indicating the position and orientation of the operation device 22 on the captured image data generated by the camera 31 .
  • the operability of the operator U can be improved by causing the data processing device 1 to display the synthetic image data on the operation device 2 .
  • the display device 21 has a sensor that detects the angle of the display device 21 with respect to the reference orientation (hereinafter sometimes referred to as "apparatus angle").
  • the reference orientation is, for example, the orientation of the display device 21 when the display device 21 is worn by the operator U who faces a predetermined orientation. Orientation.
  • the display device 21 detects the angular difference between the reference orientation and the orientation of the display device 21 as the device angle.
  • the device angle of the display device 21 is represented, for example, by a combination of two angles in a spherical coordinate system within a three-dimensional space.
  • the display device 21 generates head operation data indicating the device angle of the display device 21 with respect to the reference orientation.
  • the display device 21 notifies the communication unit 23 of the head operation data at predetermined time intervals.
  • the predetermined time interval is determined, for example, based on the speed at which the robot 3 can change the head angle. Predetermined time intervals are shortened. Since the interval at which the display device 21 notifies the device angle corresponds to the speed at which the robot 3 can change the angle of the head, it is not necessary to detect the device angle more frequently than necessary. Power consumption of the operation device 2 can be suppressed.
  • the operation device 22 (controller) is a device used by the operator U to operate the robot 3 with the hands and arms, and has sensors for detecting the movements of the operator U's hands and arms.
  • the operation device 22 generates hand-arm operation data indicating the movements of the operator's U hand and arm.
  • the operation device 22 notifies the communication unit 23 of the generated hand/arm operation data.
  • the operation device 22 may receive an operation for moving the robot 3 forward and backward or left and right.
  • the operation device 22 also has elements for generating heat, pressure, vibration, or the like corresponding to the state of the robot 3 so that the operator U can sense the state of the robot 3 .
  • the communication unit 23 has a communication controller that transmits operation data based on the content of the operation by the operator U to the data processing device 1 and receives composite image data from the data processing device 1 .
  • the communication unit 23 synchronizes the head operation data notified from the display device 21 and the hand-arm operation data notified from the operation device 22, and outputs predetermined operation data including the synchronized head operation data and hand-arm operation data. is transmitted to the data processing device 1 at time intervals of .
  • the communication unit 23 also inputs the composite image data received from the data processing device 1 to the display device 21 .
  • the communication unit 23 may transmit operation data for moving the robot 3 forward, backward, leftward, or rightward to the data processing device 1 .
  • the communication unit 23 may be included in either the display device 21 or the operation device 22 , or may be housed in a housing different from that of the display device 21 and the operation device 22 .
  • the robot 3 orients the head of the robot 3 at the same angle as the angle of the display device 21 based on the head control data generated by the data processing device 1 based on the head operation data transmitted from the operation device 2. change.
  • the robot 3 also controls the hands and arms of the robot 3 in the same manner as the hands and arms of the operator U, based on the control data of the hands and arms generated by the data processing device 1 based on the hand and arm operation data transmitted from the operation device 2 . move the
  • the camera 31 is provided, for example, on the head of the robot 3, and by capturing an image in front of the robot 3, it generates captured image data of a range including the movable parts of the robot 3.
  • the camera 31 may be an image capturing device provided separately from the robot 3 at a position capable of capturing an image of the range including the movable parts of the robot 3 .
  • the image transmission unit 32 has a communication controller for transmitting captured image data via the network N.
  • FIG. 1 illustrates the case where the camera 31 has the image transmission section 32, the portion where the image transmission section 32 is provided is arbitrary.
  • the operation device 2 generates operation data according to the movements of the operator U's head and hands and arms, and transmits the operation data to the data processing device 1 .
  • the data processing device 1 generates control data for operating the robot 3 based on the operation data, and transmits the control data to the robot 3.
  • the robot 3 operates based on control data received from the data processing device 1 . Further, after operating based on the control data received from the data processing device 1, the robot 3 may transmit feedback information (for example, ACK information) indicating that it has operated according to the control data to the data processing device 1. . While the robot 3 is operating, the captured image data generated by the camera 31 is transmitted to the data processing device 1 at predetermined time intervals (for example, 5 millisecond intervals).
  • the data processing device 1 superimposes a controller image indicating the position and orientation of the operation device 22 on the area corresponding to the movable part (for example, the arm of the robot 3) on the captured image data generated by the camera 31.
  • the synthetic image data is transmitted to the operation device 2 .
  • the display device 21 displays the composite image data received from the data processing device 1 .
  • FIG. 2 is a diagram showing the configuration of the data processing device 1.
  • the data processing device 1 has a communication section 11 , a storage section 12 and a control section 13 .
  • the control unit 13 has a controller information acquisition unit 131 , an operation control unit 132 , an image data acquisition unit 133 , a specification unit 134 , a synthesis unit 135 and a display control unit 136 .
  • the communication unit 11 has a communication interface for transmitting and receiving various data between the operation device 2 and the robot 3 via the network N.
  • the communication unit 11 inputs, for example, the controller information received from the controller device 2 to the controller information acquisition unit 131 . Also, the communication unit 11 inputs the captured image data received from the robot 3 to the image data acquisition unit 133 .
  • the communication unit 11 also transmits control data input from the operation control unit 132 to the robot 3 . Also, the communication unit 11 transmits the synthetic image data input from the display control unit 136 to the operation device 2 .
  • the storage unit 12 has storage media such as ROM (Read Only Memory), RAM (Random Access Memory) and SSD (Solid State Drive).
  • the storage unit 12 stores programs executed by the control unit 13 .
  • the storage unit 12 also temporarily stores captured image data received from the robot 3 .
  • the control unit 13 has, for example, a CPU (Central Processing Unit) as a processor.
  • the control unit 13 functions as a controller information acquisition unit 131, an operation control unit 132, an image data acquisition unit 133, an identification unit 134, a synthesis unit 135, and a display control unit 136 by executing programs stored in the storage unit 12. do.
  • a CPU Central Processing Unit
  • the processing executed by the data processing device 1 will be described in detail below. Processing for the operator U to operate the hands and arms of the robot 3 using the operation device 22 will be described below. You can operate.
  • the controller information acquisition unit 131 acquires controller information including the position and orientation of the operation device 22 when the operator U operates the movable part of the robot 3 using the operation device 22 (controller).
  • FIG. 3 is a schematic diagram for explaining the operation device 22.
  • the controller information acquisition unit 131 receives hand-arm operation data from the operation device 22 via the communication unit 11 and acquires the received hand-arm operation data as controller information including the position and orientation of the operation device 22 .
  • the controller information may also include information indicating whether or not each of one or more buttons of the operation device 22 is pressed.
  • the controller information acquisition unit 131 inputs the acquired controller information to the operation control unit 132 , the image data acquisition unit 133 and the identification unit 134 .
  • the operation control section 132 generates control data for operating the robot 3 based on the controller information input from the controller information acquisition section 131 .
  • the control data is, for example, information indicating the amount and direction (that is, vector) of movement or rotation of the movable part of the robot 3 according to the position and direction of the operation device 22 indicated by the controller information.
  • the operation control unit 132 may generate control data by, for example, adding or subtracting a predetermined correction value to or from the value indicated by the controller information.
  • the operation control section 132 transmits the generated control data to the robot 3 via the communication section 11 .
  • the image data acquisition unit 133 acquires captured image data generated by capturing images of the movable parts of the robot 3 while the camera 31 is operating the movable parts of the robot 3 according to the position and orientation of the operation device 22 . do.
  • the image data acquiring unit 133 inputs the acquired captured image data to the synthesizing unit 135 .
  • the identifying unit 134 identifies the calculated position and orientation of the movable parts of the robot 3 based on the position and orientation of the operation device 22 included in the controller information.
  • the position of the movable part is, for example, the position of the wrist of the robot 3
  • the orientation of the movable part is, for example, the orientation of the hand with respect to the position of the wrist of the robot 3 .
  • the identifying unit 134 sequentially adds or subtracts the amount and direction (i.e., vector) of movement or rotation of the movable part indicated by the control data generated by the operation control unit 132 to or from the predetermined initial position of the movable part of the robot 3. By doing so, the calculated positions and orientations of the movable parts of the robot 3 are calculated.
  • the specifying unit 134 is not limited to the specific method shown here, and may specify the calculated position and orientation of the movable part of the robot 3 corresponding to the position and orientation of the operation device 22 by other methods.
  • the synthesis unit 135 generates a controller image indicating the position and orientation of the operation device 22 included in the controller information acquired by the controller information acquisition unit 131 .
  • FIG. 4 is a schematic diagram of the controller image IM1 generated by the synthesizing unit 135. As shown in FIG.
  • the controller image IM1 is an image showing the position and orientation of at least one of the hand or wrist of the operator U holding the operation device 22, corresponding to the position and orientation included in the controller information.
  • the synthesizing unit 135 calculates the center position A of the wrist by, for example, adding or subtracting a predetermined correction value to or from the position of the operation device 22 .
  • the synthesizing unit 135 calculates the hand orientation B and the wrist angle C by, for example, adding or subtracting a predetermined correction value to or from the orientation of the operation device 22 .
  • the synthesizing unit 135 generates a controller image IM1 representing the calculated center position A of the wrist, direction B of the hand, and angle C of the wrist.
  • the controller image IM1 illustrated in FIG. 4 represents the center position A of the wrist by the position of the spherical portion, the orientation B of the hand by the orientation of the tip portion connected to the spherical portion, and the rotation angle of the wrist by the rotation angle of the spherical portion. It represents the angle C.
  • the controller image IM1 is not limited to the specific method shown here, and may represent the center position A of the wrist, the direction B of the hand tip, and the angle C of the wrist by other methods.
  • the combining unit 135 generates combined image data by superimposing the generated controller image on the region corresponding to the movable part on the captured image data.
  • the region corresponding to the movable part on the captured image data is coordinates on the captured image data corresponding to the calculated position and orientation of the movable part specified by the specifying unit 134 .
  • the synthesizing unit 135 calculates the coordinates on the captured image data, for example, by converting the calculated position and orientation of the movable part according to a predetermined rule.
  • the synthesizing unit 135 superimposes the controller image on the calculated coordinates on the captured image data.
  • the data processing apparatus 1 allows the operator U to recognize the position and orientation of the operation device 22 even when the operator U cannot see the operation device 22 .
  • the synthesizing unit 135 moves the controller image to the area corresponding to the movable part after movement on the captured image data.
  • the data processing apparatus 1 causes the controller image to follow the movable part, and allows the operator U to recognize that the controller image is displayed according to the position and orientation of the operation device 22 .
  • the synthesizing unit 135 superimposes an operation image indicating a state in which the operation device 22 is being operated in association with the controller image on the captured image data. For example, the synthesizing unit 135 superimposes an operation image representing one or more buttons of the operation device 22 near the controller image, and determines whether each of the one or more buttons is pressed based on the controller information. to change the display mode of the operation image.
  • the data processing apparatus 1 allows the operator U to recognize the operation state of the operation device 22 even when the operator U cannot see the operation device 22 .
  • the data processing device 1 allows the operator U to see the controller image and the operation image even when the movable parts of the robot 3 are hidden behind the body of the robot 3 itself or other objects and cannot be seen. The operator U can be made to recognize the positions, orientations, and operating states of the movable parts 3 .
  • the display control unit 136 transmits display data including the synthesized image data generated by the synthesizing unit 135 to the operation device 2 via the communication unit 11, thereby displaying the synthesized image data on the display device 21 visible to the operator U. display.
  • FIG. 5 is a schematic diagram of the composite image data IM2 displayed by the display device 21.
  • FIG. A controller image IM1 is displayed in a region corresponding to the movable part P in the combined image data IM2.
  • an operation image IM3 is displayed near the controller image IM1. Even if the operator U cannot see the operation device 22, the operator U can easily recognize the position and orientation of the operation device 22 by viewing the combined image data IM2, and can easily determine the operation state of the operation device 22. can be recognized.
  • FIG. 6 is a sequence diagram of the data processing method executed by the data processing system S.
  • the operation device 22 When the operator U uses the operation device 22 to operate the movable parts of the robot 3, the operation device 22 generates operation data (hand and arm operation data) indicating the movements of the operator U's hands and arms (S1). .
  • the operation device 22 transmits the generated operation data to the data processing apparatus 1 via the communication section 23 .
  • the controller information acquisition section 131 receives operation data from the operation device 22 via the communication section 11 and acquires the received operation data as controller information including the position and orientation of the operation device 22.
  • the controller information acquisition unit 131 inputs the acquired controller information to the operation control unit 132 , the image data acquisition unit 133 and the identification unit 134 .
  • the operation control unit 132 generates control data for operating the robot 3 based on the controller information input from the controller information acquisition unit 131 (S2).
  • the operation control section 132 transmits the generated control data to the robot 3 via the communication section 11 .
  • the robot 3 receives control data from the data processing device 1 and operates the movable parts according to the received control data. Further, after the robot 3 operates the movable parts according to the control data received from the data processing device 1, the robot 3 transmits feedback information (for example, ACK information) indicating that it has operated according to the control data to the data processing device 1. good too.
  • the data processing device 1 causes the storage unit 12 to store the feedback information received from the robot 3 .
  • the camera 31 generates captured image data by imaging the movable part while the movable part is being operated (S3).
  • the image transmission unit 32 transmits captured image data generated by the camera 31 to the data processing device 1 .
  • the image data acquisition unit 133 acquires captured image data generated by the camera 31 from the robot 3 .
  • the specifying unit 134 specifies the calculated position and orientation of the movable part of the robot 3 based on the position and orientation of the operation device 22 included in the controller information (S4).
  • the synthesis unit 135 generates a controller image indicating the position and orientation of the operation device 22 included in the controller information acquired by the controller information acquisition unit 131 .
  • the combining unit 135 generates combined image data by superimposing the generated controller image on the region corresponding to the movable part on the captured image data (S5).
  • the display control unit 136 transmits display data including the composite image data generated by the composition unit 135 to the operation device 2 via the communication unit 11 .
  • the display device 21 displays the composite image data received from the data processing device 1 via the communication section 23 (S6).
  • FIG. 7 is a diagram showing a flowchart of a data processing method executed by the data processing device 1. As shown in FIG. The flowchart shown in FIG. 7 starts when the operating device 2 is powered on.
  • the controller information acquisition unit 131 receives operation data from the operation device 22 via the communication unit 11, and acquires the received operation data as controller information including the position and orientation of the operation device 22 (S11).
  • the image data acquisition unit 133 acquires captured image data generated by the camera 31 from the robot 3 (S12). S11 and S12 may be performed in reverse order or in parallel.
  • the identifying unit 134 identifies the calculated position and orientation of the movable parts of the robot 3 based on the position and orientation of the operation device 22 included in the controller information (S13).
  • the synthesis unit 135 generates a controller image indicating the position and orientation of the operation device 22 included in the controller information acquired by the controller information acquisition unit 131 (S14).
  • the combining unit 135 generates combined image data by superimposing the generated controller image on the area corresponding to the movable part on the captured image data (S15). Further, the synthesizing unit 135 superimposes an operation image representing each of one or more buttons of the operation device 22 near the controller image.
  • the synthesizing unit 135 displays an operation image corresponding to the button based on the controller information. The aspect is changed (S17). If the controller information does not indicate that one or a plurality of buttons are pressed on the operation device 22 (NO in S16), the synthesizing unit 135 does not change the display mode of the operation image.
  • the display control unit 136 transmits display data including the composite image data generated by the composition unit 135 to the operation device 2 via the communication unit 11 (S18).
  • the control unit 13 repeats the processes from S11 to S18 until the operator U performs an operation to end the operation on the operation device 2 (NO in S19). If the operator U has performed an operation to end the operation (YES in S19), the control unit 13 ends the process.
  • the data processing device 1 superimposes a controller image indicating the position and orientation of the operation device 22 on the region corresponding to the movable part on the captured image data generated by the camera 31.
  • the display device 21 displays the synthesized image data generated by .
  • the identifying unit 134 identifies the actual position and orientation of the movable parts of the robot 3 in addition to identifying the calculated positions and orientations of the movable parts of the robot 3 by the method described above.
  • the identifying unit 134 executes known image recognition processing, for example, and extracts regions in the captured image data that are similar to predefined image patterns of movable parts in various orientations.
  • the specifying unit 134 specifies the position of a region similar to a specific image pattern in the captured image data as the actual position of the movable part, and specifies the orientation corresponding to the image pattern as the actual orientation of the movable part. .
  • the identifying unit 134 may, for example, calculate the position and orientation of the movable part using the operating device 2 or a sensor provided on the movable part, and identify the calculated position and orientation as the actual position and orientation.
  • a sensor for specifying the position of a movable part is, for example, an angle sensor provided at each of a plurality of joints of the movable part.
  • the specifying unit 134 acquires angles of each of the plurality of joints of the movable part from the angle sensor, and based on the acquired angles and a predefined structure of the movable part (arm length, etc.), determines the movable part. Identify the actual position and orientation.
  • the identifying unit 134 identifies the difference between the actual position and orientation of the movable part and the calculated position and orientation of the movable part.
  • the identifying unit 134 identifies, for example, a vector pointing from the actual position of the movable part to the calculated position of the movable part as the positional difference.
  • the identifying unit 134 also identifies, for example, the angle between the actual orientation of the movable part and the calculated orientation of the movable part as the orientation difference.
  • the display control unit 136 displays the difference between the actual position and orientation of the movable part and the calculated position and orientation of the movable part on the synthetic image data displayed on the display device 21 in association with the controller image. indicate.
  • the display control unit 136 superimposes, for example, a difference image including a message representing the amount and orientation of the difference between the actual position and orientation of the movable part and the calculated position and orientation of the movable part on the combined image data. displayed.
  • the synthesizing unit 135 may superimpose the controller image on the coordinates on the captured image data corresponding to the actual position and orientation of the movable part instead of the calculated position and orientation of the movable part.
  • FIG. 8 is a schematic diagram of the composite image data IM2 displayed by the display device 21.
  • a difference image IM4 including a message representing the difference is displayed near the controller image IM1.
  • the display control unit 136 displays the difference by displaying an arrow indicating the amount and direction of the difference, or by changing the color of the controller image IM1 according to the magnitude of the difference. You may By viewing the difference image IM4, the operator U can easily recognize the deviation between the actual position and orientation of the movable part and the calculated position and orientation of the movable part.
  • the operation control unit 132 may operate the movable part according to the position and orientation included in the controller information on condition that the difference is equal to or less than a predetermined value. That is, the operation control unit 132 permits the operator U to control the movement of the robot 3 when the difference is equal to or less than a predetermined value, and permits the operator U to control the movement of the robot 3 when the difference is greater than the predetermined value. not allowed. As a result, the data processing device 1 can prevent the robot 3 from moving when there is a large difference between the actual position and orientation of the movable part and the calculated position and orientation of the movable part, thereby improving safety.
  • the display control unit 136 changes the display mode (color, color, etc.) of the composite image data between a state in which the operator U is permitted to control the movement of the robot 3 and a state in which the operator U is not permitted to control the movement of the robot 3. , patterns, etc.) may be changed. Thereby, the data processing device 1 can make the operator U recognize that the robot 3 will not be moved when the deviation is large.
  • the data processing device 1 may accept correction of the difference from the operator U after displaying the difference on the display device 21 .
  • the operation control unit 132 temporarily stops the control of the movable part, and the controller information acquisition unit 131 receives the controller information from the operation device 2. Accepts an operation to move the position of the image. In a state where the position of the controller image matches the position of the movable part, the operator U performs an operation to end the correction on the operation device 22 .
  • the controller information acquisition unit 131 causes the storage unit 12 to store the amount and direction of movement of the controller image during correction as a correction amount.
  • the composition unit 135 temporarily fixes the position of the controller image, and the controller information acquisition unit 131 obtains An operation to move the movable part may be accepted. With the position of the movable part matching the position of the controller image, the operator U performs an operation to end the correction on the operation device 22 .
  • the controller information acquisition unit 131 causes the storage unit 12 to store the amount and direction of movement of the movable part at the time of correction as a correction amount.
  • the operation control unit 132 After that, the operation control unit 132 generates control data by adding or subtracting the correction amount stored in the storage unit 12 to or from the position and orientation indicated by the controller information. Thereby, the data processing apparatus 1 can correct the deviation between the actual position and orientation of the movable part and the calculated position and orientation of the movable part according to the operation by the operator U.
  • FIG. 1
  • the data processing apparatus 1 may automatically correct the position and orientation of the operation device 22 indicated by the controller information corresponding to the difference identified by the identifying unit 134 .
  • Correction of the difference includes a case of correcting the movement of the robot 3 and a case of correcting the position of the controller image.
  • the operation control unit 132 When correcting the movement of the robot 3, the operation control unit 132 generates control data by, for example, adding or subtracting the value of the difference specified by the specifying unit 134 to the position and orientation indicated by the controller information. Thereby, the motion of the robot 3 is corrected according to the difference.
  • the synthesizing unit 135 When correcting the position of the controller image, the synthesizing unit 135 adds or subtracts the difference value specified by the specifying unit 134 to or from the coordinate on the captured image data corresponding to the calculated position and orientation of the movable part.
  • the controller image is superimposed on the Thereby, the position of the controller image is corrected according to the difference.
  • the data processing device 1 can automatically correct the deviation between the actual position and orientation of the movable part and the calculated position and orientation of the movable part.
  • the data processing apparatus 1 causes the display device 21 to display an operation image showing a state in which the operation device 22 is being operated. At 22, the display device 21 is caused to display a suggested image indicating the operation to be performed next.
  • the display device 21 is caused to display a suggested image indicating the operation to be performed next.
  • the storage unit 12 stores in advance work schedule information that associates one or more work contents scheduled to be performed by the operator U with operations to be performed on the robot 3 in each of the one or more work contents.
  • the identifying unit 134 acquires work schedule information from the storage unit 12 before the synthesizing unit 135 generates synthetic image data.
  • the identification unit 134 identifies the work content that the operator U is to perform next based on the work schedule information.
  • the identifying unit 134 identifies the next scheduled work content from among one or more work content indicated by the work schedule information, for example, by receiving an input of work progress status from the operation device 22 .
  • the identifying unit 134 identifies an operation associated with the content of the next scheduled work in the work schedule information.
  • the synthesizing unit 135 superimposes an operation image indicating a state in which the operation device 22 is being operated on the captured image data in association with the controller image. Further, the synthesizing unit 135 superimposes a suggested image indicating an operation to be performed next on the operation device 22 on the captured image data according to the work content specified by the specifying unit 134 .
  • the operation to be performed next on the operation device 22 is, for example, an operation to change the hand portion of the robot 3 to be used in the work content to be performed next.
  • the suggested image is, for example, an image representing a message explaining the next operation to be performed on the operation device 22 . Further, the synthesizing unit 135 may superimpose work information indicating details of work to be performed next on the captured image data.
  • the display control unit 136 transmits display data including the synthesized image data generated by the synthesizing unit 135 to the operation device 2 via the communication unit 11, thereby displaying the synthesized image data on the display device 21 visible to the operator U. display.
  • FIG. 9 is a schematic diagram of the composite image data IM2 displayed by the display device 21.
  • an operation image IM3 is displayed near the controller image IM1.
  • work information IM5 indicating the content of the work to be performed next is displayed
  • a suggested image IM6 indicating the operation to be performed next on the operation device 22 is displayed near the operation image IM3. is displayed.
  • the data processing apparatus 1 can propose an operation according to the content of the work to be performed next to the operator U, and facilitate the progress of the work.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本開示の一実施形態に係るデータ処理装置1は、コントローラの位置に応じて装置の可動部位を操作するためのデータを処理するデータ処理装置であって、操作者がコントローラを用いて可動部位を操作する際に、位置を含むコントローラ情報を取得することと、撮像装置が、位置に応じて可動部位が操作されている間に可動部位を撮像することによって生成された撮像画像データを取得することと、撮像画像データ上の可動部位に対応する領域に、コントローラ情報が含む位置を示すコントローラ画像を重畳することによって合成画像データを生成することと、操作者が視認可能な表示装置に合成画像データを表示させることと、を実行するように構成された制御部13を有する。

Description

データ処理装置、データ処理方法及びデータ処理システム
 本開示は、データ処理装置、データ処理方法及びデータ処理システムに関する。
 特許文献1には、操作者が装着したコントローラを用いてロボットを遠隔操作するとともに、ロボットに設けられた撮像装置が生成した撮像画像を操作者が使用する端末に表示させる技術が開示されている。
特開2020-040155号公報
 操作者がロボット等の装置周辺の撮像画像を見ながら当該装置を操作していると、操作者は手元にあるコントローラを見ることができない。したがって、操作者はコントローラの位置や向きと、装置の可動部位の位置や向きとを同時に認識することが難しいため、装置を操作しづらいという問題があった。
 本開示はこの点に鑑みてなされたものであり、ロボット等の装置の操作者がコントローラを用いて装置を操作し易くするデータ処理装置等を提供することを目的とする。
 本開示の一態様に係るデータ処理装置は、コントローラの位置に応じて装置の可動部位を操作するためのデータを処理するデータ処理装置であって、操作者がコントローラを用いて可動部位を操作する際に、上記位置を含むコントローラ情報を取得することと、撮像装置が、位置に応じて可動部位が操作されている間に可動部位を撮像することによって生成された撮像画像データを取得することと、撮像画像データ上の可動部位に対応する領域に、コントローラ情報が含む上記位置を示すコントローラ画像を重畳することによって合成画像データを生成することと、操作者が視認可能な表示装置に合成画像データを表示させることと、を実行するように構成された制御部を有する。
 本開示によれば、ロボット等の装置の操作者がコントローラを用いて装置を操作し易くするデータ処理装置等が提供される。
データ処理システムの概要を示す図である。 データ処理装置の構成を示す図である。 操作デバイスを説明するための模式図である。 合成部が生成するコントローラ画像の模式図である。 表示デバイスが表示する合成画像データの模式図である。 データ処理システムが実行するデータ処理方法のシーケンス図である。 データ処理装置が実行するデータ処理方法のフローチャートを示す図である。 表示デバイスが表示する合成画像データの模式図である。 表示デバイスが表示する合成画像データの模式図である。
[データ処理システムSの概要]
 図1は、データ処理システムSの概要を示す図である。データ処理システムSは、例えば、遠隔地にある物が近くにあるかのように操作者Uに感じさせながら、操作者Uが物に対する操作をリアルタイムに行うことができるテレイグジスタンス環境を提供するシステムである。
 データ処理システムSは、データ処理装置1と、操作装置2と、ロボット3とを有する。データ処理装置1は、操作装置2において行われた操作者Uの操作に応じてロボット3を制御する装置であり、例えばコンピュータである。データ処理装置1は、操作者U又はロボット3のいずれかがいる室内に設置されていてもよく、操作者Uがいる場所及びロボット3がいる場所と異なる場所に設置されていてもよい。
 操作装置2は、操作者Uが装着するデバイスであり、表示デバイス21、操作デバイス22及び通信部23と、を有する。表示デバイス21は、操作者Uが、データ処理装置1が生成する合成画像データに基づく画像を視認可能なディスプレイ(表示装置)を有しており、例えばゴーグル型の表示装置である。表示デバイス21が表示する画像は、例えば360度(全方位)に対応する天球画像である。
 ロボット3は、ネットワークNを介してデータ処理装置1から受信する制御データに基づいて動作する、操作者Uによって遠隔操作される装置である。ロボット3は、撮像画像データを生成する撮像装置(以下、「カメラ31」という)と、カメラ31が生成した撮像画像データをデータ処理装置1に送信する画像送信部32と、を有する。また、ロボット3は、操作装置2の動きに応じて動作する、頭部、手及び腕等の可動部位を有する。ロボット3の可動部位は、操作装置2の位置及び向きに同期して動作する。
 さらに、ロボット3は、ロボット3が検知した触覚を示す触覚データ、ロボット3が収集した音を示す音データ、又はロボット3の関節の状態を示す関節状態データの少なくともいずれかのロボット状態データを、データ処理装置1を介して操作装置2に送信する。本実施の形態に係るロボット3は、一例として、多数の商品が棚に並べられた状態で販売される店舗内で、操作者Uの操作に応じて商品を棚に並べる作業を行うが、ロボット3が設けられている場所及び作業の内容は任意である。
 データ処理装置1は、カメラ31が前方を撮影することにより生成した撮像画像データを取得し、取得した撮像画像データを操作装置2の表示デバイス21に表示させる。操作者Uは、表示デバイス21を装着していると、手元にある操作装置2を見ることができない。そこで、データ処理装置1は、カメラ31が生成した撮像画像データに、操作デバイス22の位置及び向きを示すコントローラ画像を重畳することにより合成画像データを生成する。データ処理装置1が合成画像データを操作装置2に表示させることで、操作者Uの操作性を向上させることができる。
 表示デバイス21は、基準の向きに対する表示デバイス21の角度(以下、「装置角度」という場合がある)を検出するセンサーを有している。基準の向きは、例えば、所定の向きを向いた状態の操作者Uが表示デバイス21を装着した状態における表示デバイス21の向きであり、例えば表示デバイス21の起動時の向き又はリセットされた時点の向きである。表示デバイス21は、基準向きと表示デバイス21の向きとの角度差を装置角度として検出する。表示デバイス21の装置角度は、例えば三次元空間内の球座標系における2つの角度の組み合わせにより表される。
 表示デバイス21は、基準の向きに対する表示デバイス21の装置角度を示す頭部操作データを生成する。表示デバイス21は、所定の時間間隔で頭部操作データを通信部23に通知する。所定の時間間隔は、例えば、ロボット3が頭部の角度を変化させることができる速度に基づいて定められており、ロボット3が頭部の角度を変化させることができる速度が大きければ大きいほど、所定の時間間隔が短くなる。表示デバイス21が装置角度を通知する間隔が、ロボット3が頭部の角度を変化させることができる速度に対応していることで、必要以上に高い頻度で装置角度を検出する必要がないので、操作装置2の消費電力を抑制することができる。
 操作デバイス22(コントローラ)は、操作者Uがロボット3を手及び腕を操作するために用いるデバイスであり、操作者Uの手及び腕の動きを検出するためのセンサーを有している。操作デバイス22は、操作者Uの手及び腕の動きを示す手腕操作データを生成する。操作デバイス22は、生成した手腕操作データを通信部23に通知する。操作デバイス22は、ロボット3を前後又は左右方向に移動させるための操作を受け付けてもよい。また、操作デバイス22は、ロボット3の状態を操作者Uが感知することができるように、ロボット3の状態に対応する熱、圧力又は振動等を発生するための素子も有する。
 通信部23は、操作者Uによる操作の内容に基づく操作データをデータ処理装置1に送信したり、データ処理装置1から合成画像データを受信したりする通信コントローラを有する。通信部23は、例えば、表示デバイス21から通知された頭部操作データと操作デバイス22から通知された手腕操作データとを同期させ、同期した頭部操作データ及び手腕操作データを含む操作データを所定の時間間隔でデータ処理装置1に送信する。また、通信部23は、データ処理装置1から受信した合成画像データを表示デバイス21に入力する。通信部23は、ロボット3を前方、後方、左方又は右方に移動させるための操作データをデータ処理装置1に送信してもよい。なお、通信部23は、表示デバイス21又は操作デバイス22のいずれかに含まれていてもよく、表示デバイス21及び操作デバイス22と異なる筐体に収容されていてもよい。
 ロボット3は、操作装置2から送信された頭部操作データに基づいてデータ処理装置1が生成した頭部の制御データに基づいて、表示デバイス21の角度と同じ角度にロボット3の頭部の向きを変化させる。また、ロボット3は、操作装置2から送信された手腕操作データに基づいてデータ処理装置1が生成した手腕の制御データに基づいて、操作者Uの手及び腕と同様にロボット3の手及び腕を動かす。
 カメラ31は、例えばロボット3の頭部に設けられており、ロボット3の前方を撮影することにより、ロボット3の可動部位を含む範囲の撮像画像データを生成する。また、カメラ31は、ロボット3の可動部位を含む範囲を撮像可能な位置において、ロボット3とは別に設けられた撮像装置であってもよい。画像送信部32は、ネットワークNを介して撮像画像データを送信するための通信コントローラを有する。図1においては、カメラ31が画像送信部32を有している場合を例示しているが、画像送信部32が設けられている部位は任意である。
 以下、図1を参照しながらデータ処理システムSにおける処理の流れの概要を説明する。上述したように、操作装置2は、操作者Uの頭部及び手腕の動きに応じた操作データを生成し、操作データをデータ処理装置1に送信する。
 データ処理装置1は、操作データに基づいて、ロボット3を動作させるための制御データを生成し、制御データをロボット3に送信する。ロボット3は、データ処理装置1から受信した制御データに基づいて動作する。また、ロボット3は、データ処理装置1から受信した制御データに基づいて動作した後、制御データに従って動作したことを示すフィードバック情報(例えば、ACK情報)を、データ処理装置1に送信してもよい。ロボット3は、動作している間に、所定の時間間隔(例えば5ミリ秒間隔)で、カメラ31が生成した撮像画像データをデータ処理装置1に送信する。
 データ処理装置1は、カメラ31が生成した撮像画像データ上の可動部位(例えば、ロボット3の腕)に対応する領域に、操作デバイス22の位置及び向きを示すコントローラ画像を重畳することにより生成した合成画像データを、操作装置2に送信する。表示デバイス21は、データ処理装置1から受信した合成画像データを表示する。これにより、操作者Uは、自分の手元にある操作デバイス22を見ることができない状態であっても、撮像画像データにおいてロボット3の可動部位と操作デバイス22に対応するコントローラ画像とを関連付けて認識できるため、ロボット3を操作しやすくなる。
[データ処理装置1の構成]
 図2は、データ処理装置1の構成を示す図である。データ処理装置1は、通信部11と、記憶部12と、制御部13と、を有する。制御部13は、コントローラ情報取得部131と、操作制御部132と、画像データ取得部133と、特定部134と、合成部135と、表示制御部136と、を有する。
 通信部11は、ネットワークNを介して操作装置2及びロボット3との間で各種のデータを送受信するための通信インターフェースを有する。通信部11は、例えば操作装置2から受信したコントローラ情報をコントローラ情報取得部131に入力する。また、通信部11は、ロボット3から受信した撮像画像データを画像データ取得部133に入力する。また、通信部11は、操作制御部132から入力された制御データをロボット3に送信する。また、通信部11は、表示制御部136から入力された合成画像データを操作装置2に送信する。
 記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)及びSSD(Solid State Drive)等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶する。また、記憶部12は、ロボット3から受信した撮像画像データを一時的に記憶する。
 制御部13は、例えばCPU(Central Processing Unit)をプロセッサとして有する。制御部13は、記憶部12に記憶されたプログラムを実行することにより、コントローラ情報取得部131、操作制御部132、画像データ取得部133、特定部134、合成部135及び表示制御部136として機能する。
 以下、データ処理装置1が実行する処理を詳細に説明する。以下では、操作者Uが操作デバイス22を用いてロボット3の手及び腕を操作するための処理を説明するが、それと並行して操作者Uは表示デバイス21を用いてロボット3の頭部を操作してもよい。
 コントローラ情報取得部131は、操作者Uが操作デバイス22(コントローラ)を用いてロボット3の可動部位を操作する際に、操作デバイス22の位置及び向きを含むコントローラ情報を取得する。
 図3は、操作デバイス22を説明するための模式図である。コントローラ情報取得部131は、通信部11を介して操作デバイス22から手腕操作データを受信し、受信した手腕操作データを、操作デバイス22の位置及び向きを含むコントローラ情報として取得する。また、コントローラ情報は、操作デバイス22が有する一又は複数のボタンそれぞれが押下されているか否かを示す情報を含んでもよい。コントローラ情報取得部131は、取得したコントローラ情報を、操作制御部132、画像データ取得部133及び特定部134に入力する。
 操作制御部132は、コントローラ情報取得部131から入力されたコントローラ情報に基づいて、ロボット3を動作させるための制御データを生成する。制御データは、例えば、コントローラ情報が示す操作デバイス22の位置及び向きに応じて、ロボット3の可動部位が移動又は回転する量及び向き(すなわち、ベクトル)を示す情報である。操作制御部132は、例えば、コントローラ情報が示す値に所定の補正値を加算又は減算することにより制御データを生成してもよい。操作制御部132は、通信部11を介して、生成した制御データをロボット3に送信する。
 画像データ取得部133は、カメラ31が、操作デバイス22の位置及び向きに応じてロボット3の可動部位が操作されている間にロボット3の可動部位を撮像することによって生成した撮像画像データを取得する。画像データ取得部133は、取得した撮像画像データを、合成部135に入力する。
 特定部134は、コントローラ情報が含む操作デバイス22の位置及び向きに基づいて、ロボット3の可動部位の計算上の位置及び向きを特定する。可動部位の位置は、例えばロボット3の手首の位置であり、可動部位の向きは、例えばロボット3の手首の位置を基準とした手先の向きである。特定部134は、例えば、ロボット3の可動部位の所定の初期位置に、操作制御部132が生成した制御データが示す可動部位が移動又は回転する量及び向き(すなわち、ベクトル)を逐次加算又は減算することによって、ロボット3の可動部位の計算上の位置及び向きを算出する。特定部134は、ここに示した具体的な方法に限られず、その他の方法で操作デバイス22の位置及び向きに対応するロボット3の可動部位の計算上の位置及び向きを特定してもよい。
 合成部135は、コントローラ情報取得部131が取得したコントローラ情報が含む操作デバイス22の位置及び向きを示すコントローラ画像を生成する。図4は、合成部135が生成するコントローラ画像IM1の模式図である。コントローラ画像IM1は、コントローラ情報が含む位置及び向きに対応する、操作デバイス22を保持する操作者Uの手先又は手首の少なくとも一方の位置及び向きを示す画像である。
 合成部135は、例えば、操作デバイス22の位置に、所定の補正値を加算又は減算することにより、手首の中心位置Aを算出する。合成部135は、例えば、操作デバイス22の向きに、所定の補正値を加算又は減算することにより、手先の向きB及び手首の角度Cを算出する。合成部135は、算出した手首の中心位置A、手先の向きB及び手首の角度Cを表すコントローラ画像IM1を生成する。
 図4に例示したコントローラ画像IM1は、球状部分の位置によって手首の中心位置Aを表し、球状部分に接続された先端部分の向きによって手作の向きBを表し、球状部分の回転角によって手首の角度Cを表している。コントローラ画像IM1は、ここに示した具体的な方法に限られず、その他の方法で手首の中心位置A、手先の向きB及び手首の角度Cを表してもよい。
 合成部135は、撮像画像データ上の可動部位に対応する領域に、生成したコントローラ画像を重畳することによって、合成画像データを生成する。撮像画像データ上の可動部位に対応する領域は、特定部134が特定した可動部位の計算上の位置及び向きに対応する、撮像画像データ上の座標である。合成部135は、例えば可動部位の計算上の位置及び向きを所定の規則に従って変換することによって、撮像画像データ上の座標を算出する。合成部135は、算出した撮像画像データ上の座標に、コントローラ画像を重畳する。これにより、データ処理装置1は、操作者Uが操作デバイス22を見ることができない状態であっても、操作デバイス22の位置及び向きを操作者Uに認識させることができる。
 可動部位が移動した場合、すなわち可動部位の位置又は向きが変更された場合に、合成部135は、撮像画像データ上において、移動後の可動部位に対応する領域にコントローラ画像を移動させる。これにより、データ処理装置1は、可動部位にコントローラ画像を追従させ、操作デバイス22の位置及び向きに応じてコントローラ画像が表示されていることを操作者Uに認識させることができる。
 また、合成部135は、撮像画像データ上に、コントローラ画像に関連付けて、操作デバイス22が操作されている状態を示す操作画像を重畳する。合成部135は、例えば、操作デバイス22が有する一又は複数のボタンそれぞれを表す操作画像をコントローラ画像の近傍に重畳し、コントローラ情報に基づいて当該一又は複数のボタンそれぞれが押下されているか否かに応じて当該操作画像の表示態様を変更する。これにより、データ処理装置1は、操作者Uが操作デバイス22を見ることができない状態であっても、操作デバイス22の操作状態を操作者Uに認識させることができる。また、データ処理装置1は、ロボット3の可動部位が、ロボット3自体の体やその他の物体に隠れて見えない状態であっても、コントローラ画像及び操作画像を操作者Uに見せることによって、ロボット3の可動部位の位置、向き及び操作状態を操作者Uに認識させることができる。
 表示制御部136は、通信部11を介して合成部135が生成した合成画像データを含む表示データを操作装置2に送信することによって、操作者Uが視認可能な表示デバイス21に合成画像データを表示させる。
 図5は、表示デバイス21が表示する合成画像データIM2の模式図である。合成画像データIM2において、可動部位Pに対応する領域に、コントローラ画像IM1が表示されている。また、合成画像データIM2において、コントローラ画像IM1の近傍に、操作画像IM3が表示されている。操作者Uは、操作デバイス22を見ることができない状態であっても、合成画像データIM2を見ることによって、操作デバイス22の位置及び向きを容易に認識できるとともに、操作デバイス22の操作状態を容易に認識できる。
[データ処理方法のシーケンス]
 図6は、データ処理システムSが実行するデータ処理方法のシーケンス図である。操作者Uが操作デバイス22を用いてロボット3の可動部位を操作する際に、操作デバイス22は、操作者Uの手及び腕の動きを示す操作データ(手腕操作データ)を生成する(S1)。操作デバイス22は、通信部23を介して、生成した操作データをデータ処理装置1に送信する。
 データ処理装置1において、コントローラ情報取得部131は、通信部11を介して操作デバイス22から操作データを受信し、受信した操作データを、操作デバイス22の位置及び向きを含むコントローラ情報として取得する。コントローラ情報取得部131は、取得したコントローラ情報を、操作制御部132、画像データ取得部133及び特定部134に入力する。
 操作制御部132は、コントローラ情報取得部131から入力されたコントローラ情報に基づいて、ロボット3を動作させるための制御データを生成する(S2)。操作制御部132は、通信部11を介して、生成した制御データをロボット3に送信する。
 ロボット3は、データ処理装置1から制御データを受信し、受信した制御データに従って可動部位を動作させる。また、ロボット3は、データ処理装置1から受信した制御データに従って可動部位を動作させた後、制御データに従って動作したことを示すフィードバック情報(例えば、ACK情報)を、データ処理装置1に送信してもよい。データ処理装置1は、ロボット3から受信したフィードバック情報を、記憶部12に記憶させる。
 カメラ31は、可動部位が操作されている間に可動部位を撮像することによって、撮像画像データを生成する(S3)。画像送信部32は、カメラ31が生成した撮像画像データをデータ処理装置1に送信する。
 データ処理装置1において、画像データ取得部133は、ロボット3から、カメラ31が生成した撮像画像データを取得する。特定部134は、コントローラ情報が含む操作デバイス22の位置及び向きに基づいて、ロボット3の可動部位の計算上の位置及び向きを特定する(S4)。
 合成部135は、コントローラ情報取得部131が取得したコントローラ情報が含む操作デバイス22の位置及び向きを示すコントローラ画像を生成する。合成部135は、撮像画像データ上の可動部位に対応する領域に、生成したコントローラ画像を重畳することによって、合成画像データを生成する(S5)。
 表示制御部136は、通信部11を介して合成部135が生成した合成画像データを含む表示データを操作装置2に送信する。操作装置2において、表示デバイス21は、通信部23を介してデータ処理装置1から受信した合成画像データを表示する(S6)。
[データ処理方法のフロー]
 図7は、データ処理装置1が実行するデータ処理方法のフローチャートを示す図である。図7に示すフローチャートは、操作装置2の電源が投入された時点から開始している。
 コントローラ情報取得部131は、通信部11を介して操作デバイス22から操作データを受信し、受信した操作データを、操作デバイス22の位置及び向きを含むコントローラ情報として取得する(S11)。画像データ取得部133は、ロボット3から、カメラ31が生成した撮像画像データを取得する(S12)。S11及びS12は、逆の順序で行われてもよく、並行して行われてもよい。
 特定部134は、コントローラ情報が含む操作デバイス22の位置及び向きに基づいて、ロボット3の可動部位の計算上の位置及び向きを特定する(S13)。合成部135は、コントローラ情報取得部131が取得したコントローラ情報が含む操作デバイス22の位置及び向きを示すコントローラ画像を生成する(S14)。合成部135は、撮像画像データ上の可動部位に対応する領域に、生成したコントローラ画像を重畳することによって、合成画像データを生成する(S15)。また、合成部135は、操作デバイス22が有する一又は複数のボタンそれぞれを表す操作画像をコントローラ画像の近傍に重畳する。
 コントローラ情報が操作デバイス22において一又は複数のボタンのいずれかが押下されていることを示す場合に(S16のYES)、合成部135は、コントローラ情報に基づいて当該ボタンに対応する操作画像の表示態様を変更する(S17)。コントローラ情報が操作デバイス22において一又は複数のボタンのいずれかが押下されていることを示さない場合に(S16のNO)、合成部135は、操作画像の表示態様を変更しない。
 表示制御部136は、通信部11を介して合成部135が生成した合成画像データを含む表示データを操作装置2に送信する(S18)。制御部13は、操作装置2において操作者Uが操作を終了する操作をするまでの間(S19においてNO)、S11からS18までの処理を繰り返す。制御部13は、操作者Uが操作を終了する操作をした場合(S19においてYES)、処理を終了する。
[実施形態の効果]
 本実施形態に係るデータ処理システムSにおいて、データ処理装置1は、カメラ31が生成した撮像画像データ上の可動部位に対応する領域に、操作デバイス22の位置及び向きを示すコントローラ画像を重畳することにより生成した合成画像データを、表示デバイス21に表示させる。これにより、操作者Uは、自分の手元にある操作デバイス22を見ることができない状態であっても、撮像画像データにおいてロボット3の可動部位と操作デバイス22に対応するコントローラ画像とを関連付けて認識できるため、ロボット3を操作しやすくなる。
[第1変形例]
 上述の実施形態において、ロボット3が動作するために用いるモータやギヤ等には誤差があるため、操作デバイス22の位置及び向きに基づいて算出された可動部位の計算上の位置は、可動部位の実際の位置からずれる可能性がある。本変形例に係るデータ処理システムSは、可動部位の実際の位置と、可動部位の計算上の位置とのずれ(差異)を表示することによって、操作者Uがロボット3をより操作しやすくすることができる。以下、上述の実施形態とは異なる部分を主に説明する。
 特定部134は、上述の方法でロボット3の可動部位の計算上の位置及び向きを特定することに加えて、ロボット3の可動部位の実際の位置及び向きを特定する。特定部134は、例えば、既知の画像認識処理を実行し、予め定義された様々な向きの可動部位の画像パターンに類似する、撮像画像データ中の領域を抽出する。特定部134は、撮像画像データ中で特定の画像パターンに類似する領域の位置を、可動部位の実際の位置として特定し、当該画像パターンに対応する向きを、可動部位の実際の向きとして特定する。
 また、特定部134は、例えば、操作装置2又は可動部位に設けられたセンサーによって可動部位の位置及び向きを算出し、算出した位置及び向きを実際の位置及び向きとして特定してもよい。可動部位の位置を特定するためのセンサーは、例えば、可動部位の複数の関節それぞれに設けられた角度センサーである。特定部134は、角度センサーから可動部位の複数の関節それぞれの角度を取得し、取得した角度と、予め定義された可動部位の構造(腕の長さ等)と、に基づいて、可動部位の実際の位置及び向きを特定する。
 特定部134は、可動部位の実際の位置及び向きと、可動部位の計算上の位置及び向きと、の差異を特定する。特定部134は、例えば、可動部位の実際の位置から、可動部位の計算上の位置に向かうベクトルを、位置の差異として特定する。また、特定部134は、例えば、可動部位の実際の向きと、可動部位の計算上の向きとの間の角度を、向きの差異として特定する。
 表示制御部136は、表示デバイス21に表示されている合成画像データ上に、コントローラ画像に関連付けて、可動部位の実際の位置及び向きと、可動部位の計算上の位置及び向きと、の差異を表示する。表示制御部136は、例えば、可動部位の実際の位置及び向きと、可動部位の計算上の位置及び向きと、の差異の量及び向きを表すメッセージを含む差異画像を、合成画像データに重畳して表示する。また、合成部135は、可動部位の計算上の位置及び向きに代えて、可動部位の実際の位置及び向きに対応する、撮像画像データ上の座標に、コントローラ画像を重畳してもよい。
 図8は、表示デバイス21が表示する合成画像データIM2の模式図である。合成画像データIM2において、コントローラ画像IM1の近傍に、差異を表すメッセージを含む差異画像IM4が表示されている。表示制御部136は、メッセージに代えて又は加えて、差異の量及び向きを表す矢印を表示したり、コントローラ画像IM1の色を差異の大きさに応じて変更したりすることによって、差異を表示してもよい。操作者Uは、差異画像IM4を見ることによって、可動部位の実際の位置及び向きと、可動部位の計算上の位置及び向きとのずれを容易に認識できる。
 操作制御部132は、差異が所定値以下であることを条件として、コントローラ情報が含む位置及び向きに応じて可動部位を操作してもよい。すなわち、操作制御部132は、差異が所定値以下である場合に操作者Uによるロボット3の動きの制御を許可し、差異が所定値より大きい場合に操作者Uによるロボット3の動きの制御を許可しない。これにより、データ処理装置1は、可動部位の実際の位置及び向きと、可動部位の計算上の位置及び向きとのずれが大きい場合にはロボット3を動かさないようにし、安全性を向上できる。
 また、表示制御部136は、操作者Uによるロボット3の動きの制御を許可する状態と、操作者Uによるロボット3の動きの制御を許可しない状態と、で、合成画像データの表示態様(色、模様等)を変更してもよい。これにより、データ処理装置1は、ずれが大きい場合にはロボット3を動かさないことを操作者Uに認識させることができる。
 データ処理装置1は、表示デバイス21に差異を表示した後に、操作者Uから差異の補正を受け付けてもよい。例えば、操作者Uが操作デバイス22において補正を開始する操作を行った場合に、操作制御部132は、可動部位の制御を一時的に停止し、コントローラ情報取得部131は、操作装置2からコントローラ画像の位置を移動させる操作を受け付ける。コントローラ画像の位置が可動部位の位置に一致する状態で、操作者Uは操作デバイス22において補正を終了する操作を行う。コントローラ情報取得部131は、補正時にコントローラ画像が移動した量及び向きを、補正量として記憶部12に記憶させる。
 また、例えば、操作者Uが操作デバイス22において補正を開始する操作を行った場合に、合成部135は、コントローラ画像の位置を一時的に固定し、コントローラ情報取得部131は、操作装置2から可動部位を移動させる操作を受け付けてもよい。可動部位の位置がコントローラ画像の位置に一致する状態で、操作者Uは操作デバイス22において補正を終了する操作を行う。コントローラ情報取得部131は、補正時に可動部位が移動した量及び向きを、補正量として記憶部12に記憶させる。
 その後、操作制御部132は、コントローラ情報が示す位置及び向きに、記憶部12に記憶された補正量を加算又は減算することにより制御データを生成する。これにより、データ処理装置1は、操作者Uによる操作に応じて、可動部位の実際の位置及び向きと、可動部位の計算上の位置及び向きとのずれを補正できる。
 また、データ処理装置1は、コントローラ情報が示す操作デバイス22の位置及び向きに対して、特定部134が特定した差異に対応する補正を自動的にしてもよい。差異の補正は、ロボット3の動きを補正する場合と、コントローラ画像の位置を補正する場合と、がある。ロボット3の動きを補正する場合に、操作制御部132は、例えば、コントローラ情報が示す位置及び向きに、特定部134が特定した差異の値を加算又は減算することにより制御データを生成する。これにより、差異に応じてロボット3の動きが補正される。
 コントローラ画像の位置を補正する場合に、合成部135は、可動部位の計算上の位置及び向きに対応する撮像画像データ上の座標に、特定部134が特定した差異の値を加算又は減算した位置に、コントローラ画像を重畳する。これにより、差異に応じてコントローラ画像の位置が補正される。これにより、データ処理装置1は、自動的に、可動部位の実際の位置及び向きと、可動部位の計算上の位置及び向きとのずれを補正できる。
[第2変形例]
 上述の実施形態では、データ処理装置1は、操作デバイス22が操作されている状態を示す操作画像を表示デバイス21に表示させるのに対して、本変形例では、データ処理装置1は、操作デバイス22において次に行われるべき操作を示す提案画像を表示デバイス21に表示させる。以下、上述の実施形態とは異なる部分を主に説明する。
 記憶部12には、操作者Uが行う予定の一又は複数の作業内容と、当該一又は複数の作業内容それぞれにおいてロボット3に対して行う操作と、を関連付けた作業予定情報が予め記憶されている。特定部134は、合成部135が合成画像データを生成する前に、記憶部12から作業予定情報を取得する。特定部134は、作業予定情報に基づいて、操作者Uが次に行う予定の作業内容を特定する。
 特定部134は、例えば、操作デバイス22から作業の進捗状況の入力を受け付けることによって、作業予定情報が示す一又は複数の作業内容の中から次に行う予定の作業内容を特定する。特定部134は、作業予定情報において、次に行う予定の作業内容に関連付けられた操作を特定する。
 合成部135は、撮像画像データ上に、コントローラ画像に関連付けて、操作デバイス22が操作されている状態を示す操作画像を重畳する。さらに合成部135は、撮像画像データ上に、特定部134が特定した作業内容に応じて、操作デバイス22に対して次に行うべき操作を示す提案画像を重畳する。操作デバイス22に対して次に行うべき操作は、例えば、次に行う予定の作業内容で用いられるロボット3の手先部分に変更する操作である。提案画像は、例えば、操作デバイス22に対して次に行うべき操作を説明するメッセージを表す画像である。また、合成部135は、撮像画像データ上に、次に行う予定の作業内容を示す作業情報を重畳してもよい。
 表示制御部136は、通信部11を介して合成部135が生成した合成画像データを含む表示データを操作装置2に送信することによって、操作者Uが視認可能な表示デバイス21に合成画像データを表示させる。
 図9は、表示デバイス21が表示する合成画像データIM2の模式図である。合成画像データIM2において、コントローラ画像IM1の近傍に、操作画像IM3が表示されている。また、合成画像データIM2において、次に行う予定の作業内容を示す作業情報IM5が表示されているとともに、操作画像IM3の近傍に、操作デバイス22に対して次に行うべき操作を示す提案画像IM6が表示されている。これにより、データ処理装置1は、操作者Uに対して、次に行う予定の作業内容に応じた操作を提案し、作業の進行を円滑化できる。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。

 

Claims (14)

  1.  コントローラの位置に応じて装置の可動部位を操作するためのデータを処理するデータ処理装置であって、
     操作者が前記コントローラを用いて前記可動部位を操作する際に、前記位置を含むコントローラ情報を取得することと、
     撮像装置が、前記位置に応じて前記可動部位が操作されている間に前記可動部位を撮像することによって生成された撮像画像データを取得することと、
     前記撮像画像データ上の前記可動部位に対応する領域に、前記コントローラ情報が含む前記位置を示すコントローラ画像を重畳することによって合成画像データを生成することと、
     前記操作者が視認可能な表示装置に前記合成画像データを表示させることと、
     を実行するように構成された制御部を有するデータ処理装置。
  2.  前記制御部は、
     前記位置に加えて前記コントローラの向きを含む前記コントローラ情報を取得し、
     前記コントローラ情報が含む前記位置及び前記向きを示す前記コントローラ画像を重畳することによって前記合成画像データを生成する、
     請求項1に記載のデータ処理装置。
  3.  前記コントローラ画像は、前記コントローラ情報が含む前記向きに対応する、前記コントローラを保持する前記操作者の手先又は手首の少なくとも一方の向きを示す画像である、
     請求項2に記載のデータ処理装置。
  4.  前記制御部は、前記可動部位が移動した場合に、前記撮像画像データ上において、移動後の前記可動部位に対応する領域に、前記コントローラ画像を重畳する、
     請求項1から3のいずれか一項に記載のデータ処理装置。
  5.  前記制御部は、前記撮像画像データ上に、前記コントローラ画像に関連付けて、前記コントローラが操作されている状態を示す画像を重畳する、
     請求項1から4のいずれか一項に記載のデータ処理装置。
  6.  前記制御部は、前記撮像画像データ上に、前記操作者が次に行うことが予定されている作業内容に応じて、前記コントローラに対して次に行うべき操作を示す画像を重畳する、
     請求項1から5のいずれか一項に記載のデータ処理装置。
  7.  前記制御部は、前記可動部位の実際の位置と、前記コントローラ情報が含む前記位置に基づいて算出された前記可動部位の計算上の位置と、の間の差異を特定することをさらに実行するように構成されている、
     請求項1から5のいずれか一項に記載のデータ処理装置。
  8.  前記制御部は、
     前記位置に加えて前記コントローラの向きを含む前記コントローラ情報を取得し、
     前記可動部位の実際の位置及び向きと、前記コントローラ情報が含む前記位置及び前記向きに基づいて算出された前記可動部位の計算上の位置及び向きと、の間の前記差異を特定する、
     請求項7に記載のデータ処理装置。
  9.  前記制御部は、前記コントローラ画像に関連付けて、前記差異を前記表示装置に表示させる、
     請求項7又は8に記載のデータ処理装置。
  10.  前記制御部は、前記コントローラ情報が含む前記位置に対して前記差異に対応する補正をした上で、前記コントローラ情報が含む前記位置に応じて前記可動部位を操作することをさらに実行するように構成されている、
     請求項7から9のいずれか一項に記載のデータ処理装置。
  11.  前記制御部は、前記差異が所定値以下であることを条件として、前記コントローラ情報が含む前記位置に応じて前記可動部位を操作する、
     請求項10に記載のデータ処理装置。
  12.  コントローラの位置に応じて装置の可動部位を操作するためのデータをコンピュータが処理するデータ処理方法であって、
     操作者が前記コントローラを用いて前記可動部位を操作する際に、前記位置を含むコントローラ情報を取得することと、
     撮像装置が、前記位置に応じて前記可動部位が操作されている間に前記可動部位を撮像することによって生成された撮像画像データを取得することと、
     前記撮像画像データ上の前記可動部位に対応する領域に、前記コントローラ情報が含む前記位置を示すコントローラ画像を重畳することによって合成画像データを生成することと、
     前記操作者が視認可能な表示装置に前記合成画像データを表示させることと、
     を含むデータ処理方法。
  13.  コントローラの位置に応じて装置の可動部位を操作するためのデータを処理するデータ処理方法をコンピュータに実行させるためのプログラムであって、
     前記データ処理方法は、
     操作者が前記コントローラを用いて前記可動部位を操作する際に、前記位置を含むコントローラ情報を取得することと、
     撮像装置が、前記位置に応じて前記可動部位が操作されている間に前記可動部位を撮像することによって生成された撮像画像データを取得することと、
     前記撮像画像データ上の前記可動部位に対応する領域に、前記コントローラ情報が含む前記位置を示すコントローラ画像を重畳することによって合成画像データを生成することと、
     前記操作者が視認可能な表示装置に前記合成画像データを表示させることと、
     を含む、プログラム。
  14.  装置を操作するためのコントローラに関連付けられた操作装置と、前記コントローラの位置に応じて前記装置の可動部位を操作するためのデータを処理するデータ処理装置と、を備えるデータ処理システムであって、
     前記データ処理装置は、
      操作者が前記コントローラを用いて前記可動部位を操作する際に、前記位置を含むコントローラ情報を取得することと、
      撮像装置が、前記位置に応じて前記可動部位が操作されている間に前記可動部位を撮像することによって生成された撮像画像データを取得することと、
      前記撮像画像データ上の前記可動部位に対応する領域に、前記コントローラ情報が含む前記位置を示すコントローラ画像を重畳することによって合成画像データを生成することと、
      前記操作装置に前記合成画像データを送信することと、
     を実行するように構成された制御部を有し、
     前記操作装置は、
      前記操作者による操作の内容に基づく前記コントローラ情報を前記データ処理装置に送信する通信部と、
      前記操作者が視認可能な、前記データ処理装置が送信した前記合成画像データを表示する表示部と、
     を有する、
     データ処理システム。

     
PCT/JP2022/018831 2021-04-28 2022-04-26 データ処理装置、データ処理方法及びデータ処理システム WO2022230854A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020237031576A KR20240004248A (ko) 2021-04-28 2022-04-26 데이터 처리 장치, 데이터 처리 방법 및 데이터 처리 시스템
CN202280027818.5A CN117121503A (zh) 2021-04-28 2022-04-26 数据处理装置、数据处理方法以及数据处理系统
JP2023517542A JPWO2022230854A1 (ja) 2021-04-28 2022-04-26
US18/286,912 US20240202877A1 (en) 2021-04-28 2022-04-26 Data processing apparatus, data processing method, and data processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021075776 2021-04-28
JP2021-075776 2021-04-28

Publications (1)

Publication Number Publication Date
WO2022230854A1 true WO2022230854A1 (ja) 2022-11-03

Family

ID=83848406

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/018831 WO2022230854A1 (ja) 2021-04-28 2022-04-26 データ処理装置、データ処理方法及びデータ処理システム

Country Status (5)

Country Link
US (1) US20240202877A1 (ja)
JP (1) JPWO2022230854A1 (ja)
KR (1) KR20240004248A (ja)
CN (1) CN117121503A (ja)
WO (1) WO2022230854A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189431A (ja) * 2010-03-12 2011-09-29 Denso Wave Inc ロボットシステム
JP2014065100A (ja) * 2012-09-25 2014-04-17 Denso Wave Inc ロボットシステム、及びロボットのティーチング方法
US20200163731A1 (en) * 2017-07-13 2020-05-28 Intuitive Surgical Operations, Inc. Systems and methods for switching control between multiple instrument arms

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6666400B1 (ja) 2018-09-10 2020-03-13 Telexistence株式会社 ロボット制御装置、ロボット制御方法及びロボット制御システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189431A (ja) * 2010-03-12 2011-09-29 Denso Wave Inc ロボットシステム
JP2014065100A (ja) * 2012-09-25 2014-04-17 Denso Wave Inc ロボットシステム、及びロボットのティーチング方法
US20200163731A1 (en) * 2017-07-13 2020-05-28 Intuitive Surgical Operations, Inc. Systems and methods for switching control between multiple instrument arms

Also Published As

Publication number Publication date
JPWO2022230854A1 (ja) 2022-11-03
KR20240004248A (ko) 2024-01-11
CN117121503A (zh) 2023-11-24
US20240202877A1 (en) 2024-06-20

Similar Documents

Publication Publication Date Title
CN110394780B (zh) 机器人的仿真装置
EP3342561B1 (en) Remote control robot system
US7714895B2 (en) Interactive and shared augmented reality system and method having local and remote access
JP5526881B2 (ja) ロボットシステム
US20160158937A1 (en) Robot system having augmented reality-compatible display
CN110977931A (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
US20190160662A1 (en) Teaching device for performing robot teaching operations and teaching method
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP7000253B2 (ja) 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
US12017351B2 (en) Remote control system, information processing method, and non-transitory computer-readable recording medium
JP7564327B2 (ja) 教示装置
JP4949799B2 (ja) 作業支援装置および方法
WO2019026790A1 (ja) ロボットシステム及びその運転方法
US20200361092A1 (en) Robot operating device, robot, and robot operating method
WO2022230854A1 (ja) データ処理装置、データ処理方法及びデータ処理システム
JP2003181785A (ja) 遠隔操作装置
JPH1011122A (ja) 情報提示装置
JPH1177568A (ja) 教示支援方法及び装置
WO2022220208A1 (ja) データ処理装置、データ処理方法、プログラム及びデータ処理システム
US20230010302A1 (en) Generation of image for robot operation
JP4949798B2 (ja) 作業支援装置および方法
JP2019215769A (ja) 操作装置及び操作方法
JPS60126985A (ja) 遠隔操作における作業状況表示装置
JP2005267554A (ja) 画像処理方法、画像処理装置
JPH09297611A (ja) ロボット教示方法及び装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22795767

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023517542

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18286912

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22795767

Country of ref document: EP

Kind code of ref document: A1